ai 10 min • intermediate

Desplegando una Pila de Memoria Anclada de Cero a Producción

Guía de construcción paso a paso con ajuste de recuperación, suites de evaluación, gobernanza y controles de costos

Por AI Research Team
Desplegando una Pila de Memoria Anclada de Cero a Producción

Desplegando una Pila de Memoria Fundamentada desde Cero hasta Producción

Los sistemas de memoria fundamentada han pasado de demostraciones en laboratorio a patrones de producción, impulsados por la recuperación híbrida y memorias en capas que reducen significativamente las alucinaciones y mejoran los resultados de las tareas cuando se combinan con evidencia verificable y políticas de escritura/lectura fundamentadas [1,2,3]. El estado del arte actual combina recuperación densa y dispersa, reordenamiento mediante codificación cruzada y servicio eficiente de contextos largos para equilibrar la precisión, la latencia y el costo, integrando controles de privacidad y procedencia a nivel de auditoría [1,2,17,20–24,39].

Este artículo es una guía paso a paso para construir y un libro de buenas prácticas para implementar una pila de memoria fundamentada. Delimitaremos datos y criterios de éxito; estableceremos una pila mínima viable con un modelo ajustado por instrucciones o de largo contexto en vLLM; ajustaremos la recuperación y el reordenamiento con validación estilo BEIR/KILT; implementaremos políticas de memoria que controlen el crecimiento; reforzaremos la fundamentación y el monitoreo; construiremos un arnés de evaluación; configuraremos la gobernanza; y llevaremos a producción con partición, almacenamiento en niveles, trabajos en segundo plano y observabilidad [1,2,17,20–27,39,42,57].

Al final, tendrás un plan para pasar de cero a producción con trazas reproducibles, evaluación rigurosa y límites de costos, sin sacrificar la seguridad o la privacidad.

Detalles de Arquitectura/Implementación

Alcance del proyecto y mapeo de datos

Comienza definiendo las tareas objetivo, las fuentes de verdad, los límites de privacidad y las métricas de éxito.

  • Fuentes de verdad: KBs curadas, documentación, historiales de tickets, bases de código y APIs autorizadas deben mapearse explícitamente y conectarse mediante herramientas; los diseños híbridos que combinan búsqueda vectorial sobre contenido no estructurado con consultas estructuradas a sistemas de fuente de verdad dominan a escala [1,3].
  • Límites de privacidad: Identifica PII y campos sensibles por adelantado; planifica la detección/redacción antes de la integración o persistencia (e.g., Microsoft Presidio) y segrega por inquilino con ACLs a nivel de fila/campo en almacenes vectoriales [20–24,44].
  • Métricas de éxito: Para tareas de largo contexto y conocimiento intensivo, rastrea la fundamentación (cobertura y fidelidad de la evidencia), calibración, latencia/flujo y costo por tarea; para flujos de trabajo inter-sesión, mide tasas de recuperación y contradicción [10–16,25,40].

Configuración de la pila mínima viable

Una referencia para una pila de memoria fundamentada incluye:

  • Modelo y servicio: Elige un LLM ajustado por instrucciones o de largo contexto y despliega con PagedAttention de vLLM para alto rendimiento, agrupamiento continuo y almacenamiento en caché de prefijos; combina con núcleos de atención eficientes como FlashAttention-2 para reducir latencia y uso de memoria [17,62]. La transmisión o la atención en anillo pueden estabilizar aún más el rendimiento para contextos largos [18,19].
  • Recuperación híbrida: Implementa una tubería dispersa-densa (BM25 + incrustaciones densas) con un reordenador de codificador cruzado. Este patrón consistentemente mejora la precisión/recuperación y la fundamentación con citas cuando se ajusta en tareas BEIR y KILT [1,26,27].
  • Almacenamiento: Utiliza una base de datos vectorial de producción que soporte ANN (HNSW/IVF), búsqueda híbrida, filtros de metadatos (etiquetas de inquilino/tiempo/modalidad/PII) y partición horizontal: las opciones incluyen Pinecone, Weaviate, Milvus, Qdrant o Chroma; FAISS es una fuerte biblioteca local [20–24,22,58]. Para cargas de trabajo transaccionales + vectoriales unificadas a escala moderada, pgvector o LanceDB son viables; a gran escala en discos giratorios, el indexado tipo DiskANN puede controlar la latencia/el uso [59–61].
  • Memoria en capas: Mantén memoria de trabajo (caché de indicaciones/KV), memoria episódica (eventos de usuario/tarea con sello de tiempo) y memoria semántica (hechos/habilidades con procedencia). La memoria semántica debe estructurarse para búsqueda exacta y auditoría (e.g., grafos de conocimiento, almacenes relacionales) junto a almacenes vectoriales para recuperación no estructurada [1–3].

Flujo de trabajo de ajuste de recuperación

Construye una tubería de recuperación reproducible antes de añadir complejidad agencial.

  • Preparación y fragmentación del corpus: Alinea fragmentos a unidades semánticas (párrafos/secciones para documentos; funciones/clases para código; límites de transacción/sesión para registros) para preservar la coherencia.
  • Indexación y filtros: Etiqueta cada fragmento con URI, sello de tiempo, hash de contenido, inquilino, modalidad y banderas de PII para habilitar gobernanza y ranking consciente de la frescura.
  • Validación: Evalúa recuperadores y reordenadores en tareas BEIR y KILT, que miden calidad de recuperación y corrección de extremo a extremo con atribución; agrega HotpotQA para razonamiento de múltiples saltos si aplica [26–28].
  • Calibración: Ajusta parámetros del recuperador denso, pesos MMR/diversidad y el umbral del codificador cruzado para minimizar la longitud del contexto mientras maximizas la precisión/recuperación de la evidencia [1,27].

Implementación de políticas de memoria

Controla el crecimiento e interferencia con políticas de escritura/lectura/descomposición fundamentadas.

  • Políticas de escritura: Puntúa memorias candidatas por importancia, novedad, utilidad prevista y relevancia marcada por el usuario; controladores estilo bandido pueden aprender umbrales bajo restricciones de costo. Evita escribir contenido especulativo/no verificado; prefiere recuperación bajo demanda.
  • Políticas de lectura: Usa recuperación multipiscina (búfer episódico reciente, perfil semántico personal, KB global y herramientas) y aplica selección MMR o submodular para equilibrar relevancia y diversidad; incorpora descomposición basada en antigüedad y ponderación de reciente.
  • Deduplicación y compresión: Aplica LSH/MinHash/SimHash para detección de duplicados casi idénticos; agrupa y fusiona memorias similares. Usa resumen y compresión jerárquicos (e.g., LLMLingua) para producir resúmenes densos mientras preservas entidades clave, fechas y decisiones; asegúrate de que los resúmenes lleven procedencia. La indexación jerárquica estilo RAPTOR puede aumentar la recuperación/precisión a través de cuerpos o heterogéneos.

Ajuste de Recuperación, Fundamentación y Arnés de Evaluación

Fundamentación y monitoreo

Haz de la procedencia una prioridad y monitoriza continuamente la fidelidad.

  • Procedencia: Cada fragmento recuperado debe incluir URI, sello de tiempo y hash de contenido; las generaciones deben citar explícitamente las fuentes cerca de afirmaciones. Adopta conceptos W3C PROV para representar derivaciones y agentes/herramientas responsables para asegurar la auditabilidad.
  • Crítica y verificación: Entrena la política para recuperar-luego-criticar (e.g., Self-RAG) para reducir alucinaciones y mejorar la cobertura de evidencia; alterna el razonamiento con recuperación/navegación mediada por herramientas (ReAct) para verificar pasos intermedios y obtener datos frescos [2,3].
  • Métricas automáticas y calibración: Integra RAGAS para fidelidad, relevancia de respuesta, y precisión/recuperación de evidencia; registra puntuaciones de recuperación y resultados de verificación. Calibra las confianzas mediante escalado de temperatura, votación de autoconsistencia, o estimaciones basadas en reordenamiento para mejorar decisiones de abstención/enrutamiento; almacena confianzas por afirmación y IDs de evidencia para auditorías [25,40,41].

Arnés de evaluación y reproducibilidad

Adopta un arnés de extremo a extremo que cubra largo contexto, recuperación multisessiones y tareas agenciales.

  • Largo contexto: Usa LongBench, SCROLLS, RULER, L-Eval y InfiniteBench para explorar razonamiento y recuperación con entradas grandes; agrega sondas Needle-in-a-Haystack para probar recuperación selectiva bajo ruido [10–13,51,52].
  • Multisessiones: Evalúa consistencia y recuperación multisessiones con MSC; rastrea la proporción de hechos/preferencias requeridas recordadas y tasas de contradicción.
  • Tareas web agenciales y codificación: Para tareas web, usa WebArena y Mind2Web con registro de precisión de herramientas y uso seguro de herramientas; para codificación basada en repositorios, usa SWE-bench para medir resolución de extremo a extremo basada en la base de código real [15,16,65].
  • Trazado: Usa arneses abiertos como TruLens y Haystack para trazar contextos de recuperación, indicaciones, semillas y acciones de herramientas para asegurar reproducibilidad y diagnóstico; incluye latencias p50/p95 por etapa, tokens/seg y contabilidad de costo por tarea [54,55].

Patrones de Gobernanza y Producción

Salvaguardias, cumplimiento y control de acceso

Lanza con controles de seguridad y privacidad habilitados por defecto.

  • Detección y redacción de PII: Detecta y redacta PII antes de integración o persistencia; donde se autorice la reidentificación, usa tokens reversibles con auditoría estricta. Evita codificar PII sin procesar donde sea posible; si es inevitable, encripta en reposo y durante la transmisión, y segrega por inquilino con ACLs a nivel de fila/campo en almacenes vectoriales [20–24,58].
  • Derecho al olvido: Implementa flujos de trabajo de eliminación que propaguen tumbas a través de índices, cachés y copias de seguridad (incluyendo gráficos ANN) para el cumplimiento de GDPR; mantiene registros de auditoría amplios y alineados con la procedencia [39,45].
  • Mapas de control: Alinea políticas con HIPAA (PHI), NIST SP 800-53 (acceso/auditoría/respuesta a incidentes), NIST AI RMF (riesgo del ciclo de vida), ISO/IEC 42001 (gestión de AI) y las obligaciones basadas en riesgo del EU AI Act, incluyendo transparencia y supervisión humana [46–48,67,70].

Producción y control de costos

Diseña para la escala, la resiliencia y la eficiencia desde el primer día.

  • Sharding y namespaces: Particiona por inquilino/usuario, proyecto/dominio y modalidad para reducir interferencias y asegurar privacidad; mantiene registros de sólo adición con eliminaciones suaves y versionado para auditabilidad.
  • Almacenamiento en niveles: Mantén cachés calientes para elementos recientes/alto valor, índices vectoriales cálidos para contenido activo y almacenamiento de objetos frío para archivos para equilibrar latencia y costo; rastrea versiones del modelo de incrustación para prevenir desajustes de distribución [20–24].
  • Trabajos en segundo plano: Ejecuta consolidación (resúmenes jerárquicos/resúmenes), recrawling de fuentes y re-indexación durante ventanas fuera de pico; marca artefactos obsoletos y activa re-verificación cuando cambian fuentes río arriba [42,57].
  • Eficiencia de servicio y observabilidad: Usa vLLM con PagedAttention y FlashAttention-2; considera la decodificación especulativa para reducir aún más la latencia. Observa trazas de recuperación, latencias por etapa, presupuestos de tokens y costo por tarea; enfócate en escenarios de concurrencia realistas [17,62].

Manuales y Prácticas de SRE

Los sistemas de memoria fundamentada necesitan libros de operaciones explícitos.

  • Respuesta a incidentes para malas escrituras: Pone en cuarentena memorias sospechosas, retrocede a puntos de control conocidos, y vuelve a ejecutar pruebas a nivel de afirmación; prefiere editar memorias externas con versionado y procedencia. Para hechos de alta urgencia incrustados en el modelo, editores paramétricos como ROME o MEMIT pueden aplicar actualizaciones localizadas, seguidas por verificaciones de regresión para efectos secundarios [36–38].
  • Ediciones de memoria y retroceso: Mantén registros de sólo adición con ediciones diferenciadas y eliminaciones suaves; almacena hashes de contenido y marcas de tiempo para reproducibilidad; implementa copias sombreadas al probar ediciones para evitar la contaminación cruzada de inquilinos.
  • Verificaciones de interferencia: Después de consolidaciones o ediciones, ejecuta precisión pre/post en conocimiento retenido y sondas de seguridad para detectar olvido o interferencia; rastrea cambios de calibración y deltas de fundamentación (vía RAGAS).
  • Guardarraíles de costo: Aplica presupuestos por etapa (llamadas al recuperador, tokens, uso de herramienta/API); usa resúmenes jerárquicos y compresión de indicaciones para contener costos de tokens; ajusta la profundidad de crítica/verificación según tolerancia al riesgo y grafica éxito de tareas frente al presupuesto de tokens.

Tablas de Comparación

Elecciones principales y cuándo preferir

Elección de diseñoImpacto en precisiónImpacto en latencia/costoImpacto en seguridad/privacidadCuándo preferir
Modelo de largo contexto (ventana grande) [10,17–19,62]Mejora coherencia/recuperación local de contexto reciente; todavía requiere recuperación para amplitudCosto/latencia por token más altos; mitigado por atención optimizada y serviciosNeutral a privacidadDocumentos cortos, necesidades altas de coherencia local
RAG híbrido (BM25 + denso + codificador cruzado) [1,27]Grandes ganancias en precisión/recuperación y fundamentación con citasAñade latencia de recuperación; reduce tokens de generación mediante evidencia concisaPositivo: procedencia verificableTareas intensivas en conocimiento en grandes corporaciones
Recuperación aumentada con gráficas (GraphRAG)Mejor razonamiento de múltiples saltos, desambiguación; salidas amigables con citasConstrucción de gráficos offline; costo de consulta moderadoPositivo: esquema explícito/procedenciaDominios procedurales/relacionales
Crítica/verificación Self-RAGReduce alucinaciones; mejora cobertura de evidenciaPasos extra de modelo/herramienta aumentan p95Positivo: menos afirmaciones insegurasDominios de alto riesgo, baja tolerancia al error
Resumen jerárquico (LLMLingua, RAPTOR) [42,57]Preserva info salient; algún riesgo de maticesBajo costo de lectura si precomputadoNeutral; depende de la retención de procedenciaHilos largos, historias multisessiones
Aislamiento de namespace + logs de sólo adiciónReduce interferencias/contaminación entre inquilinosMínimo overhead en tiempo de ejecuciónFuerte positivo: privacidad, auditabilidadCargas de trabajo multitenant, reguladas
vLLM + FlashAttention-2 [17,62]Neutral a precisión; permite mayor batch/contextoMejora significativa en rendimiento/latenciaNeutralServicio en línea a escala

Buenas Prácticas

  • Empieza primero con la procedencia: Adjunta URI/marca de tiempo/hash de contenido a cada fragmento y requiere cita cerca de afirmaciones; adopta registros alineados con W3C PROV para auditabilidad.
  • Ajusta recuperación antes que indicaciones: Valida pipelines BM25+denso+reordenador en BEIR/KILT e itera esquemas de fragmentación/ventanas alineados a unidades semánticas [1,26,27].
  • Escribe menos, recupera más: Usa umbrales de importancia y novedad, con asignación estilo bandido bajo restricciones de costo; desalienta escrituras especulativas; pospone a la recuperación.
  • Controla el crecimiento: Deduplica con LSH/MinHash/SimHash; agrupa y fusiona; programa cadencias de resumen jerárquico (sesión → semanal → mensual) y mantiene procedencia en resúmenes.
  • Calibra y absténte: Graba confianzas por afirmación, aplica escalado de temperatura y votación de autoconsistencia, y enruta/abstente cuando la confianza es baja [40,41].
  • Evalúa de extremo a extremo: Combina suites de largo contexto (LongBench/SCROLLS/RULER/L-Eval/InfiniteBench) con sondas Needle, pruebas MSC multisessión y tareas de dominio (WebArena/Mind2Web/SWE-bench); almacena semillas, indicaciones, contextos de recuperación y acciones de herramientas para reproducibilidad [10–16,51,52,65].
  • Gobierna por diseño: Ejecuta detección/redacción de PII pre-integración; aplica ACLs a nivel de fila/campo; implementa eliminación compatible con GDPR con marcación de tumbas en índices y cachés; alinea con HIPAA/NIST/ISO/EU AI Act donde aplique [20–24,45–48,67,70].
  • Observa todo: Emite trazas de recuperación, uso de tokens, latencias por etapa y costo por tarea; observa interferencias/olvido vía sondas pre/post y fundamentación vía RAGAS.

Ejemplos Prácticos

Aunque el informe de investigación no proporciona fragmentos de código concretos y benchmarks propietarios, el siguiente camino de implementación esboza una progresión reproducible desde el MVP hasta la producción fundamentada en las prácticas citadas:

  • Semana 1 MVP: Despliega un modelo ajustado por instrucciones o de largo contexto en vLLM con PagedAttention; habilita FlashAttention-2 para aceleraciones del núcleo. Levanta una BD vectorial (e.g., Pinecone/Weaviate/Milvus/Qdrant/Chroma) y un índice BM25; agrega un reordenador de codificador cruzado. Instrumenta trazas de recuperación y contabilidad de tokens desde el primer día [1,17,20–24,27,62].
  • Preparación del corpus: Fragmenta documentos por unidades semánticas (secciones/párrafos) y etiqueta cada fragmento con URI, marca de tiempo, hash de contenido, inquilino, modalidad y banderas de PII. Ejecuta detección/redacción de PII antes de la integración. Indexa con ANN (HNSW/IVF) y habilita filtros de metadatos para inquilino/tiempo [39,44].
  • Ajuste de recuperación: Valida en tareas BEIR/KILT; ajusta parámetros del recuperador denso y pesos MMR/diversidad; calibra umbrales del codificador cruzado para reducir longitud de contexto sin perder precisión/recuperación de evidencia. Agrega sondas Needle-in-a-Haystack para detectar fallas “perdidas en el medio” [13,26,27].
  • Políticas de memoria: Implementa puntuación de importancia/novedad para escrituras; habilita deduplicación con LSH/MinHash/SimHash; programa cadencias de resumen jerárquico (sesión → semanal → mensual) usando técnicas de compresión que preserven entidades, fechas y decisiones con procedencia.
  • Fundamentación y crítica: Requiere citas por afirmación; adopta bucles de recuperar-generar-criticar estilo Self-RAG para aumentar cobertura de evidencia; alterna uso de herramientas estilo ReAct para frescura y verificación [2,3].
  • Arnés de evaluación: Agrega LongBench/SCROLLS/RULER e InfiniteBench para razonamiento de largo contexto; MSC para recuperación multissesión; WebArena/Mind2Web (y SWE-bench para codificación) para tareas de extremo a extremo. Usa TruLens/Haystack para almacenar semillas, indicaciones, contextos de recuperación y acciones de herramientas para reproducibilidad y diagnóstico [10–16,51,52,54,55,65].
  • Gobernanza: Aplica ACLs a nivel de fila/campo en almacenes vectoriales; implementa pipelines de eliminación compatibles con GDPR con marcación de tumbas a través de índices y cachés; mantiene registros de auditoría alineados con PROV de W3C; alinea con HIPAA/NIST/ISO/EU AI Act cuando aplique [39,45–48,58,67,70].
  • Producción: Fragmenta por inquilino/proyecto; usa almacenamiento en niveles (cachés calientes, índices vectoriales cálidos, almacenamiento de objetos en frío); programa consolidación de fondo, recrawls y re-indexación; monitoriza latencias p50/p95 por etapa, tokens/seg y costo por tarea bajo concurrencia realista [17,20–24].
  • Manuales: Define respuesta a incidentes para malas escrituras (cuarentena, retroceso, re-verificación). Prefiere ediciones de memoria externa con versionado y procedencia; para arreglos paramétricos urgentes, usa editores localizados (ROME/MEMIT) seguidos por verificaciones de regresión por interferencia/olvido [36–38].

Conclusión

Las pilas de memoria fundamentada combinan memoria en capas con recuperación híbrida, procedencia verificable y políticas de escritura/lectura/descomposición disciplinadas, todo servido eficientemente y gobernado rigurosamente. El camino de cero a producción comienza con el mapeo de datos y el ajuste de recuperación, luego añade monitoreo para fundamentación y calibración, un arnés de evaluación que abarca tareas de largo contexto y agenciales, y patrones de gobernanza y producción que escalan con controles de costo y auditabilidad [1,2,17,20–27,39].

Conclusiones clave:

  • La recuperación híbrida con reordenamiento, más el criticar-luego-recuperar, es el método más fiable para mejorar la fundamentación y reducir alucinaciones [1,2,27].
  • La procedencia (URI/marca de tiempo/hash) y el monitoreo basado en RAGAS deben ser prioritarios, no pensados después [25,39].
  • El crecimiento de la memoria debe ser gestionado mediante escrituras conscientes de importancia, deduplicación y resumen jerárquico con procedencia preservada [4,42,57].
  • Evalúa de extremo a extremo con suites de largo contexto, multisessión y tareas agenciales; almacena trazas completas para reproducibilidad [10–16,51,52,54,55].
  • Gobierna por diseño: la redacción de PII, ACLs, eliminación GDPR, y registros de auditoría son obligatorios en producción [44,45,58].

Próximos pasos: Levanta la pila MVP con vLLM y un recuperador híbrido; ejecuta ajuste BEIR/KILT; habilita procedencia y RAGAS; integra LongBench/Needle y una suite de tareas de dominio; luego itera umbrales de importancia, cadencia de resumen y profundidad de crítica mientras rastrea costos por tarea y latencias p95. De cara al futuro, la recuperación aumentada con gráficas y una calibración de confianza más robusta prometen una fundamentación y confiabilidad aún más fuertes a medida que aumentan los cuerpos, modalidades y requisitos regulatorios [40,56].

Fuentes y Referencias

arxiv.org
A Survey on Retrieval-Augmented Generation for Large Language Models Supports the hybrid RAG pattern (dense + sparse + re-ranking), tuning guidance, and benefits on groundedness essential to the minimal viable stack and best practices.
arxiv.org
Self-RAG: Learning to Retrieve, Generate, and Critique for Improving Language Models Provides the retrieve‑then‑critique strategy to reduce hallucinations and improve evidence coverage used in grounding and monitoring.
arxiv.org
ReAct: Synergizing Reasoning and Acting in Language Models Informs tool‑mediated retrieval/browsing interleaved with reasoning for verification and freshness during grounding.
arxiv.org
vLLM: PagedAttention Specifies high‑throughput serving, continuous batching, and prefix caching for efficient long‑context deployment in the minimal viable stack.
arxiv.org
FlashAttention-2 Details optimized attention kernels that reduce latency and memory, central to serving efficiency and cost controls.
arxiv.org
StreamingLLM Provides techniques for handling long sequences with stable throughput, relevant to long-context serving design.
arxiv.org
Ring Attention Offers additional attention optimizations for long-context serving under production constraints.
docs.pinecone.io
Pinecone documentation Represents production vector DB capabilities (ANN, hybrid search, metadata filters, ACLs) used in storage design.
weaviate.io
Weaviate documentation Supports the vector store feature set and governance-relevant capabilities referenced in productionization.
github.com
FAISS Provides high-performance local ANN indexing referenced for retrieval infrastructure.
milvus.io
Milvus documentation Another production vector DB option supporting hybrid retrieval and governance features.
docs.trychroma.com
Chroma documentation Lightweight vector DB option for MVP setups in the storage layer.
qdrant.tech
Qdrant documentation Vector DB reference for ANN, hybrid search, and metadata filtering used in the stack.
github.com
pgvector Supports the unified transactional + vector workload option at moderate scale.
lancedb.github.io
LanceDB documentation Alternative for combined vector and data management at moderate scale in production patterns.
www.microsoft.com
DiskANN Covers graph-on-disk indexing to control latency/footprint at very large scale.
arxiv.org
KILT One of the core retrieval/QA benchmarks used for validation and tuning.
arxiv.org
BEIR Benchmark suite for evaluating retrieval quality that guides re-ranker calibration.
arxiv.org
HotpotQA Provides multi-hop retrieval/QA evaluation relevant to retrieval tuning.
github.com
RAGAS Supplies automatic groundedness metrics for monitoring faithfulness and evidence coverage.
www.w3.org
W3C PROV Overview Defines provenance standards used to audit retrieval/generation pipelines with URI/timestamp/hash tracking.
arxiv.org
LLaVA Supports multimodal memory considerations mentioned as part of production design (modality tagging and provenance).
arxiv.org
LLMLingua Informs compression strategies used in hierarchical summarization to control token budgets.
arxiv.org
RAPTOR Introduces hierarchical indexing that boosts recall/precision for long or heterogeneous corpora.
github.com
Microsoft GraphRAG (repository) Demonstrates graph-augmented retrieval for multi-hop reasoning and citation-friendly outputs.
arxiv.org
MemPrompt: Memory-Augmented Prompting for LLMs Provides the salience-aware write policy framework for allocating write budgets.
github.com
Needle-in-a-Haystack test Used in the evaluation harness to assess selective recall under noise in long contexts.
arxiv.org
LongBench Core long-context benchmark for assessing reasoning/recall with large inputs.
arxiv.org
SCROLLS Additional long-context benchmark to probe sequence understanding.
arxiv.org
RULER Benchmark for long-context evaluation included in the recommended harness.
arxiv.org
L-Eval Another long-context evaluation suite for coverage in the harness.
arxiv.org
InfiniteBench Evaluates model behavior at extreme context lengths used in evaluation.
github.com
Multi-Session Chat (MSC) dataset Measures cross-session recall and consistency for multi-session memory evaluation.
arxiv.org
WebArena Agentic web task suite for end-to-end evaluation of retrieval and tool use.
arxiv.org
Mind2Web Additional agentic web task suite to evaluate planning, retrieval, and tool usage.
www.trulens.org
TruLens Open evaluation/tracing framework for reproducible runs with stored prompts and retrieval contexts.
haystack.deepset.ai
Haystack Framework supporting tracing and evaluation of retrieval pipelines in a reproducible manner.
github.com
Microsoft Presidio PII detection/redaction tool recommended for safeguarding embeddings and stored content.
gdpr-info.eu
GDPR Article 17 Right-to-be-forgotten requirement informing deletion workflows across indexes and caches.
www.hhs.gov
HIPAA (HHS) Regulatory framework for handling PHI referenced in governance configuration.
csrc.nist.gov
NIST SP 800-53 Rev. 5 Control framework for access/audit/incident response used to shape governance and SRE practices.
www.iso.org
ISO/IEC 42001:2023 AI management system standard relevant to governance configuration.
www.consilium.europa.eu
EU AI Act (Council of the EU overview) Provides risk-based obligations for AI systems applied to governance design.
arxiv.org
Calibrate Before Use Guides confidence calibration (temperature scaling) for improved abstention/routing in monitoring.
arxiv.org
Self-Consistency Improves Chain of Thought Reasoning Supports calibration via self-consistency voting in uncertainty tracking.
arxiv.org
ROME: Locating and Editing Factual Associations in GPT Parametric editing approach for urgent fixes with post-edit regression checks in runbooks.
arxiv.org
MEMIT: Mass-Editing Memory in a Transformer Further details on parametric editing and risks of interference requiring regression tests.
arxiv.org
SERAC: Editing Models with Task Arithmetic Additional editing method informing the playbook for safe model updates.
crdt.tech
CRDTs Supports append-only, conflict-free logs and synchronization for multi-agent or multi-device memory systems.

Ad space (disabled)