tech 5 min • intermediate

OMB M-24-10 establece un nuevo régimen de responsabilidad para la analítica en la aplicación de la ley

Aplicando inventarios, evaluaciones de impacto, TEV/M, métricas de sesgo y transparencia a la focalización habilitada por Palantir en misiones investigativas

Por AI Research Team
OMB M-24-10 establece un nuevo régimen de responsabilidad para la analítica en la aplicación de la ley

OMB M‑24‑10 Establece un Nuevo Régimen de Responsabilidad para el Análisis Policial

Aplicando inventarios, evaluaciones de impacto, TEV/M, métricas de sesgo y transparencia a la focalización habilitada por Palantir a través de misiones investigativas

El gobierno federal ha cruzado el Rubicón de gobernanza: bajo el memorándum M‑24‑10 de la Oficina de Gestión y Presupuesto, la supervisión de la IA pasa de ser una orientación a requisitos vinculantes. Ese cambio recae directamente en los análisis investigativos utilizados por las agencias policiales, donde herramientas configurables como el análisis de vínculos, la resolución de entidades y la priorización ahora enfrentan un régimen formal de inventarios, evaluaciones de impacto, pruebas y transparencia. Las apuestas son altas: estos análisis sintetizan conjuntos de datos sensibles para generar pistas, formular hipótesis investigativas y guiar la asignación de recursos en misiones que van desde el crimen transnacional hasta la explotación infantil.

Este artículo mapea cómo el OMB M‑24‑10, basado en la trayectoria establecida por la Orden Ejecutiva 14110, reformará la prueba, equidad y transparencia para los análisis habilitados por Palantir utilizados en funciones investigativas. Muestra dónde la gobernanza actual ya proporciona un andamiaje—a través de los artefactos de privacidad del DHS, procedencia del sistema y auditoría—y dónde las nuevas obligaciones exigirán evidencia de desempeño medible, evaluación de sesgos y validación independiente. Los lectores aprenderán cómo categorizar funciones investigativas bajo la definición de IA, qué incluir en inventarios de casos de uso y evaluaciones de impacto, cómo construir programas TEV/M adecuados para la focalización y cómo reconciliar la transparencia y la contestabilidad con las restricciones legales. Un mapa práctico cierra con pasos a corto plazo que las agencias pueden implementar para enfrentar el momento.

El Cambio Regulatorio: De la OE 14110 al OMB M‑24‑10—y Definiendo la IA en Investigaciones

La Orden Ejecutiva 14110 dirige a las agencias a asegurar una IA segura, confiable y de confianza mediante mecanismos de gobernanza concretos: roles de liderazgo, inventarios de casos de uso y salvaguardas adaptadas al riesgo. El OMB M‑24‑10 hace que esos mecanismos sean obligatorios, requiriendo que las agencias identifiquen y evalúen usos de IA—particularmente aquellos que pueden afectar derechos y seguridad—y que implementen pruebas, evaluación y monitoreo (TEV/M) junto con medidas de transparencia adecuadas al perfil de riesgo.

Decidir qué cuenta como IA: priorización, análisis de vínculos y resolución de entidades

La pregunta umbral para los análisis investigativos es la categorización. Los entornos habilitados por Palantir utilizados en investigaciones federales—como plataformas de búsqueda consolidada y análisis construidas sobre Gotham—proporcionan resolución de entidades, descongestión a través de conjuntos de datos, análisis de vínculos basado en gráficos y análisis geoespacial. También soportan paneles de control configurables y flujos de trabajo que presentan pistas y priorizan la atención usando criterios y reglas de negocio definidos por los investigadores. Las agencias deben determinar si estas configuraciones cumplen con la definición política de IA en la práctica. Cuando tales análisis influyen de manera material en la focalización investigativa o la asignación de recursos, y presentan implicaciones plausibles de derechos civiles, el enfoque prudente es tratarlos como IA sujetos a los requisitos de M‑24‑10.

Esta categorización no convierte a estos sistemas en adjudicadores automatizados. Los artefactos del DHS y los diseños del sistema enfatizan la toma de decisiones con el “humano en el bucle”; los analistas y supervisores siguen siendo responsables de verificar la suficiencia probatoria antes de tomar medidas. Pero “humano en el bucle” no elimina la gobernanza: si las salidas analíticas determinan quién es visible para el sistema y qué hipótesis suben a la cima, el marco de seguridad de IA que impacta del M‑24‑10 es el lente apropiado.

Inventarios de casos de uso y evaluaciones de impacto adaptadas a funciones investigativas

Las entradas del inventario deben describir funciones, no solo sistemas. Para las investigaciones habilitadas por Palantir, se justifican entradas distintas para:

  • Resolución de entidades y descongestión a través de conjuntos de datos del DHS y externos.
  • Análisis de gráficos/enlaces que muestra asociaciones entre personas, entidades, eventos, comunicaciones y flujos financieros.
  • Mapeo geoespacial y análisis de proximidad.
  • Flujos de trabajo de generación de pistas y priorización usados para triar el enfoque investigativo.

Cada entrada debe capturar fuentes de datos (incluidos sistemas del DHS, flujos interinstitucionales y conjuntos de datos comerciales/de código abierto aprobados), restricciones de gobernanza (accesos basados en roles, etiquetado de procedencia, registro de auditoría) y características de riesgo (potencial de impacto dispar, efectos de retroalimentación y sensibilidades de privacidad). Las evaluaciones de impacto deben ir más allá, describiendo daños previsibles, mitigaciones y caminos de supervisión, y clarificando los puntos de decisión humana donde ocurre la verificación y revisión supervisora.

Construyendo TEV/M para Investigaciones Habilitadas por Palantir

El OMB M‑24‑10 exige pruebas, evaluación y monitoreo acordes al riesgo. Para los análisis investigativos, el TEV/M debe ir más allá de la seguridad de la plataforma y los controles de procesos para cuantificar qué tan bien realmente performan la generación de pistas y la priorización—y para quién.

Estableciendo precisión/recuperación, solidez y monitoreo de deriva

A pesar de los controles robustos en torno a la procedencia, la auditoría y la revisión humana, no hay suficiente evidencia cuantitativa pública sobre la exactitud de los análisis investigativos. Las agencias deben instituir programas TEV/M que:

  • Definan etiquetas de resultados operacionalmente significativas para la evaluación retrospectiva (por ejemplo, si una pista priorizada fue corroborada a través de evidencia independiente antes de la acción operacional). Donde no se dispongan métricas específicas públicamente, las agencias deben informar a los organismos de supervisión y publicar resúmenes de alto nivel que protejan métodos sensibles.
  • Midan precisión y recuperación para configuraciones de generación de pistas y priorización a través de dominios investigativos representativos. Dado que la misma plataforma puede albergar múltiples flujos analíticos, las evaluaciones deben ser específicas del caso de uso.
  • Prueben la solidez frente a registros ruidosos, obsoletos o conflictivos inherentes a la agregación de múltiples fuentes; documenten modos de fallo conocidos vinculados a la calidad de los datos y la coincidencia de identidad.
  • Monitoreen el desplazamiento y la deriva en las fuentes de datos—particularmente conjuntos de datos comerciales y flujos de código abierto—señalando cuando cambios de cobertura o calidad podrían sesgar los resultados.

Un proceso de gestión de cambios debe vincular estas métricas con controles de implementación: cambios significativos de configuración o adiciones de conjuntos de datos deben disparar la re-verificación y actualizaciones del registro de cambios, con resúmenes disponibles para los equipos de supervisión.

Métricas de sesgo e impacto dispar: marcos de muestreo, proxies protegidos, y planes de mitigación

Los riesgos de injusticia se acumulan donde la cobertura es desigual (por ejemplo, conjuntos de datos geoespaciales como registros de lectores de matrículas), donde los datos comerciales reflejan sesgos estructurales, y donde las características analíticas actúan como proxies para características protegidas. Las agencias deben:

  • Establecer marcos de muestreo que reflejen las poblaciones realmente afectadas por la priorización investigativa, no solo casos activos o puntos críticos históricos.
  • Identificar y documentar proxies potenciales (nacionalidad, idioma, historial de direcciones, estructura de red) y probar disparidades de resultados entre grupos relevantes. Donde las restricciones legales limiten la divulgación pública, reportar resultados detallados a supervisores internos (oficinas de privacidad, unidades de derechos civiles, inspectores generales) y divulgar resúmenes agregados.
  • Emparejar hallazgos de disparidad con planes de mitigación documentados: ajustar ponderaciones o umbrales de características; requerir pasos de verificación humana para combinaciones de características de alto riesgo; restringir el uso de ciertos conjuntos de datos a propósitos justificados por necesidad; y ampliar la capacitación de analistas sobre los riesgos de sesgo.

La experiencia de otras herramientas de riesgo de la policía muestra cómo la lógica opaca y la supervisión inadecuada pueden degradar la justicia, incluso cuando las herramientas se enmarcan como neutrales. Los análisis investigativos que influyen en quién es examinado deben cumplir con un estándar más alto: las disparidades deben ser medidas, explicadas y mitigadas, no presumidas simplemente inexistentes por la revisión humana.

Riesgos de bucles de retroalimentación y evaluación longitudinal de los efectos de asignación de recursos

Cuando las decisiones de priorización y asignación se informan por resultados pasados de cumplimiento de la ley, los análisis pueden reforzar patrones históricos independientemente del riesgo subyacente. Las agencias deben tratar esto como una hipótesis que puede ser probada. Evaluaciones longitudinales pueden comparar trayectorias en regiones o categorías de casos situadas de manera similar para detectar si los cambios de recursos impulsados por análisis amplifican las disparidades en quién se hace visible a los investigadores. Las mitigaciones pueden incluir un rebalanceo periódico, límites a ciertos tipos de consultas, o inversiones específicas en la calidad de datos en áreas subrepresentadas. Los organismos de supervisión deben recibir análisis recurrentes de los efectos de retroalimentación junto con los paneles de desempeño estándar.

Transparencia, Documentación y Contestabilidad—Dentro de las Restricciones Legales

Los análisis policiales operan dentro de un marco de privacidad y divulgación que tanto habilita como limita la supervisión pública. Navegar esta tensión es central para las expectativas de transparencia de M‑24‑10.

Documentación del modelo: resúmenes públicos versus detalle interno sensible

La transparencia pública actual descansa en gran medida sobre evaluaciones de impacto de privacidad y avisos del sistema de registros, que describen propósitos, categorías de datos, compartición, riesgos y mitigaciones. Internamente, las plataformas proporcionan capacidades de linaje y auditoría que permiten a los analistas inspeccionar fuentes, consultas y vinculaciones detrás de un resultado analítico. Lo que falta públicamente es documentación específica del sistema y del caso de uso—similar a las tarjetas de modelo—que articule los conjuntos de datos utilizados, limitaciones conocidas, procedimientos de evaluación y cambios históricos para las configuraciones de focalización y priorización.

Las agencias deben producir dos niveles de documentación:

  • Documentación interna sensible con hallazgos detallados de TEV/M, métricas de disparidad y especificaciones de configuración para uso de oficinas de privacidad, unidades de derechos civiles, inspectores generales y asesores legales.
  • Resúmenes públicos que expliquen funciones, limitaciones conocidas y mecanismos de gobernanza en lenguaje sencillo, omitiendo umbrales o ponderaciones sensibles operativamente pero transmitiendo postura de responsabilidad y resultados a un alto nivel.

Transparencia y contestabilidad bajo restricciones y exenciones legales

La contestabilidad se complica por las exenciones de la policía, la clasificación y las protecciones de fuentes sensibles. Los individuos pueden buscar registros a través de procesos establecidos, pero el acceso a menudo está limitado cuando la divulgación revelaría técnicas o dificultaría investigaciones. En la práctica, los desafíos a los resultados analíticos aparecen en procedimientos penales o de inmigración, donde el acceso al método está gobernado por la divulgación y órdenes de protección. Las agencias aún pueden mejorar la contestabilidad proporcionando aviso en procedimientos cuando los análisis informan acciones de forma material y facilitando el acceso controlado de defensa a registros y metodologías subyacentes bajo supervisión judicial.

Validación independiente: roles para oficinas de privacidad, unidades de derechos civiles, inspectores generales y revisores externos

La supervisión multicapa ya existe: las oficinas de privacidad departamentales revisan PIAs y cumplimiento; las unidades de derechos civiles evalúan los impactos en derechos; los inspectores generales investigan conductas indebidas y fallas sistémicas; y el Congreso puede exigir información. Bajo M‑24‑10, estos actores deben recibir expedientes de validación formal para los usos de IA que impactan la seguridad, incluyendo la focalización investigativa. Auditorías independientes periódicas—realizadas internamente o por revisores externos calificados—deberían evaluar la exactitud, la robustez, el impacto dispar y los efectos de retroalimentación, compartiendo hallazgos con cuerpos de supervisión y resumiéndolos públicamente.

La ambición analítica está limitada por el sobre legal y político en torno a los datos sensibles. Ese sobre se ha estrechado—y desplazado—de maneras que afectan directamente los análisis investigativos.

Doctrina en evolución sobre privacidad digital y datos ligados a la ubicación

La doctrina constitucional ha subrayado los intereses de privacidad elevados en ciertas categorías de información digital, notablemente registros de ubicación sensibles. Las agencias que acceden a conjuntos de datos geoespaciales—incluyendo registros de lectores de matrículas o información de ubicación derivada de telefonía—deben alinear sus prácticas con expectativas en evolución para procesos legales, minimización y necesidad. La documentación debe reflejar la base legal, las salvaguardias aplicadas y los contextos en los que tales datos se utilizan para informar análisis.

Leyes estatales de corredores de datos: implicaciones de contratación y coreografía de cumplimiento

El ecosistema de datos comerciales se ha convertido en una entrada importante para los análisis investigativos—registros públicos, datos de servicios públicos, metadatos de telefonía, registros de vehículos y LPR, y señales derivadas de redes sociales entre ellos. Las nuevas leyes estatales de corredores de datos están remodelando qué está disponible, en qué términos y con qué expectativas de aviso y consentimiento. Las agencias deben:

  • Mapear cada conjunto de datos intermediado a un uso específico, justificado por necesidad, período de retención y base legal en artefactos de privacidad actualizados.
  • Evaluar a los proveedores para la procedencia, el cumplimiento con leyes aplicables y prácticas de calidad de datos; requerir etiquetado de procedencia al ingresar.
  • Asegurar que la transparencia en la contratación vincule elementos de la línea de contrato con los correspondientes entregables de gobernanza y mitigación de riesgos.

Postura de seguridad y responsabilidad pública para el manejo de datos

Las autorizaciones de seguridad a nivel de plataforma y los controles a nivel de objeto proporcionan una base técnica sólida. Sin embargo, fallas en el manejo de datos en otros lugares del ecosistema demuestran cómo los entornos sensibles siguen siendo vulnerables a divulgaciones inadvertidas. Las agencias deben fortalecer los controles de liberación, expandir ejercicios de equipos rojos sobre flujos de trabajo de manejo de datos, y publicar lecciones aprendidas a través de los canales existentes de informes de privacidad.

Un Mapa de Ruta a Corto Plazo: Piloto, Fase, Estandarizar

Cumplir con el estándar de M‑24‑10 para análisis investigativos es alcanzable con una secuencia disciplinada y una clara responsabilidad.

  • Lanzar pilotos: Seleccionar 2-3 casos de uso investigativos de alto impacto (por ejemplo, priorización de pistas en casos complejos) para un desarrollo TEV/M de extremo a extremo—definiendo etiquetas de resultados, midiendo precisión/recuperación, probando la solidez y monitoreando la deriva. Capturar métricas de disparidad y análisis de bucles de retroalimentación con planes de mitigación.
  • Construir inventarios y evaluaciones de impacto por función: Documentar la resolución de entidades, análisis de vínculos, análisis geoespacial y priorización como entradas discretas con mapeos de fuentes de datos, restricciones y características de riesgo.
  • Producir documentación escalonada: Crear expedientes de validación interna y resúmenes públicos; mantener registros de cambios y actualizar la cadencia vinculada a cambios de configuración y nuevas fuentes de datos.
  • Institucionalizar transferencias de supervisión: Establecer sesiones informativas recurrentes y salas de datos seguras para oficinas de privacidad, unidades de derechos civiles e inspectores generales; definir desencadenantes para revisión externa.
  • Alinear contratación con responsabilidad: Incluir auditorías de calidad de datos, etiquetado de procedencia y entregables de resumen público en los contratos de proveedores; mapear cada conjunto de datos intermediado a propósitos justificados por necesidad y retención.
  • Estandarizar a través de componentes: Compartir plantillas para inventarios, evaluaciones de impacto, métricas TEV/M y análisis de disparidad para reducir la duplicación y acelerar el cumplimiento. 🚦

Conclusión

El OMB M‑24‑10 establece un nuevo estándar de responsabilidad para los análisis policiales: si las configuraciones investigativas influyen en quién es visto, señalado o priorizado, deben estar en los inventarios de IA de la agencia y deben ser probadas, monitoreadas y explicadas. La gobernanza existente del DHS—evaluaciones de impacto de privacidad, avisos del sistema de registros, acceso basado en roles, procedencia y auditoría—proporciona un punto de partida sólido. Pero las piezas que faltan son evidencia medible de desempeño, evaluación consciente de disparidades y validación independiente—acompañadas de resúmenes de cara al público que comuniquen límites y protecciones sin comprometer las operaciones.

Puntos clave:

  • Tratar los análisis de focalización y priorización como IA cuando influyen materialmente en acciones investigativas y presentan riesgos de derechos.
  • Construir TEV/M que mida precisión/recuperación, solidez, deriva y efectos de retroalimentación a nivel de caso de uso, no solo a nivel de sistema.
  • Evaluar y mitigar impactos dispares con marcos de muestreo claros, detección de proxies y cambios documentados a características y umbrales.
  • Producir documentación escalonada y fortalecer la contestabilidad a través de avisos en procedimientos y acceso controlado a métodos.
  • Vincular contratación y uso de corredores de datos a necesidad, procedencia y entregables de gobernanza transparente.

Próximos pasos para las agencias: establecer programas piloto TEV/M para algunos casos de uso de alto impacto, publicar entradas de inventario a nivel de función y evaluaciones de impacto, entregar expedientes de validación interna a cuerpos de supervisión y publicar resúmenes públicos que establezcan expectativas y habiliten responsabilidad medida. El resultado será analíticas más fuertes y mayor legitimidad—un doble imperativo para misiones investigativas que operan bajo un creciente escrutinio público y político.

Fuentes y Referencias

www.whitehouse.gov
OMB M‑24‑10: Advancing Governance, Innovation, and Risk Management for Agency Use of AI (2024) Establishes binding federal requirements for AI inventories, impact assessments, TEV/M, and transparency that the article applies to law‑enforcement analytics.
www.whitehouse.gov
Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of AI (2023) Provides the policy foundation that OMB M‑24‑10 operationalizes, framing expectations for AI governance in the federal government.
www.dhs.gov
DHS/ICE PIA‑055: FALCON Search & Analysis (FALCON‑SA) Details investigative analytics functions, data governance, and controls relevant to categorizing and assessing Palantir‑enabled capabilities.
www.dhs.gov
DHS/ICE PIA‑039: Investigative Case Management (ICM) Describes case management integration, human‑in‑the‑loop practices, and governance mechanisms central to law‑enforcement analytics oversight.
www.palantir.com
Palantir Gotham platform overview Explains platform features—data integration, provenance, RBAC, auditing, graph and geospatial analytics—used in investigative contexts.
www.dhs.gov
DHS/ICE‑009 External Investigations System of Records Notice (SORN) Defines the legal scaffolding, routine uses, and law‑enforcement exemptions that shape transparency and contestability for investigative records.
www.dhs.gov
DHS/ALL/PIA‑048: DHS Use of Social Media for Operational Use Frames approvals, training, and purpose limitations for open‑source data used in investigative analytics.
www.dhs.gov
DHS Fair Information Practice Principles (FIPPs) Articulates privacy principles—minimization, purpose limitation, transparency, accountability—mapped to investigative analytics governance.
www.dhs.gov
DHS/ICE PIA‑045: ICE HSI Use of License Plate Reader (LPR) Systems Illustrates governance of sensitive geospatial datasets and constraints relevant to fairness and privacy concerns in analytics.
www.dhs.gov
DHS Artificial Intelligence resources and governance Shows departmental AI governance structures that inform component compliance with OMB M‑24‑10.
www.americandragnet.org
Georgetown Law Center on Privacy & Technology, American Dragnet Documents government reliance on data brokers and the associated privacy and fairness concerns relevant to investigative analytics.
www.supremecourt.gov
Carpenter v. United States (2018) Establishes constitutional constraints on access to sensitive location data, shaping lawful use of geospatial datasets in analytics.
www.dhs.gov
DHS Privacy Office Annual Report (latest available) Demonstrates existing oversight and reporting mechanisms that can receive AI validation dossiers and public summaries.
marketplace.fedramp.gov
FedRAMP Marketplace: Palantir Federal Cloud Service (PFCS) Confirms platform‑level security authorization underpinning technical controls like encryption, RBAC, and continuous monitoring.
www.usaspending.gov
USAspending.gov: Federal contract data for Palantir (search portal) Provides procurement transparency that can be linked to governance deliverables in the article’s roadmap.
www.vera.org
Vera Institute of Justice, Justice Denied: The Harmful Effects of ICE’s Risk Classification Assessment Offers cautionary lessons about risk tools’ fairness and oversight challenges, informing the need for bias testing and transparency in investigative analytics.

Advertisement