ai 5 min • intermediate

Umbrales Transparentes y Auditoría de Sesgos Definirán la Próxima Ola de Tecnología Facial de ICE

Investigaciones emergentes, estándares e innovaciones políticas listas para remodelar la precisión de identificación y las salvaguardias de las libertades civiles

Por AI Research Team
Umbrales Transparentes y Auditoría de Sesgos Definirán la Próxima Ola de Tecnología Facial de ICE

Umbrales Transparentes y Auditorías de Sesgo Definirán la Próxima Ola de la Tecnología de Reconocimiento Facial de ICE

Investigaciones emergentes, estándares e innovaciones políticas preparadas para remodelar la precisión de identificación y las salvaguardas de libertades civiles

A pesar de las notables mejoras de precisión en las pruebas independientes de reconocimiento facial desde 2019, los sistemas disponibles para la aplicación de la ley de inmigración de EE.UU. aún operan tras un velo: los algoritmos y las versiones no se divulgan públicamente, los umbrales de confianza operacional son opacos, y la forma de las galerías que se buscan permanece en gran medida oculta. Esa opacidad importa mientras el Departamento de Seguridad Nacional migra el procesamiento biométrico central a su sistema de próxima generación y mientras la aplicación de la ley de inmigración se apoya en una mezcla de bases de datos federales, verificación móvil uno a uno, y herramientas de búsqueda comercial uno a muchos. Mientras tanto, a nivel estatal se han endurecido las restricciones de acceso a las galerías de licencias de conducir y los litigios han limitado algunos mercados de tecnología facial del sector privado mientras preservan rutas gubernamentales.

La próxima ola de tecnología facial de ICE no será definida por un solo algoritmo revolucionario. Será definida por umbrales transparentes ajustados a condiciones de imagen del mundo real, auditorías rigurosas de sesgo vinculadas al uso operativo, origen de datos legal y minimización de galerías, revisión humana asistida por máquinas que pueda gestionar errores, y una corrección creíble cuando la tecnología falle. Este artículo explora la trayectoria de innovación que importará: cómo alinear la evaluación con condiciones de campo, mitigar diferencias demográficas sin sacrificar el debido proceso, construir hojas de ruta de transparencia que soporten la supervisión, y codificar estándares constitucionales y estatales en el diseño técnico.

La siguiente fase de FRVT: evaluaciones que reflejan la realidad operativa

Benchmarks independientes han documentado rápidas mejoras de rendimiento tanto en la verificación uno a uno como en la identificación uno a muchos desde 2019, mostrando también que las diferencias demográficas persisten en muchos algoritmos y que los errores se amplían con imágenes no restringidas o ajustes agresivos de umbrales. Esa doble realidad —mayor precisión general pero desempeño desigual entre demografías y condiciones de imagen— exige una próxima fase de evaluación que refleje cómo ICE realmente usa el reconocimiento facial.

flowchart TD
 A["Fase de Evaluación FRVT"] --> B["Alinear pruebas con galerías reales"]
 A --> C["Comparar mejoras de rendimiento"]
 A --> D["Abordar diferencias demográficas"]
 B --> E["Repositorios biométricos de DHS"]
 B --> F["Registros de ATD para verificaciones uno a uno"]
 B --> G["Grandes grupos heterogéneos"]
 D --> H["Los errores aumentan con las condiciones de imagen"]
 D --> I["Ajuste agresivo de umbrales"]
 D --> J["Realidad operativa de ICE"]

Este diagrama ilustra la próxima fase de evaluaciones FRVT, destacando tres pivotes clave: alinear pruebas con galerías operativas reales, comparar mejoras de rendimiento, y abordar diferencias demográficas. Refleja la compleja realidad de las operaciones de reconocimiento facial de ICE.

Tres pivotes son fundamentales:

  • Alinear pruebas con galerías reales. Las consultas de ICE abarcan repositorios biométricos de DHS poblados por encuentros fronterizos e inmigratorios, registros de ATD curados para verificaciones uno a uno, y grandes grupos heterogéneos como fotos de fichas o imágenes recopiladas de la web accedidas a través de herramientas comerciales. Las evaluaciones deben reflejar esa diversidad: grandes tamaños de galería, condiciones de captura mixtas e imágenes antiguas no son casos aislados; son el entorno operativo para la identificación investigativa.

  • Ponderar el envejecimiento y la calidad. Los rostros cambian con el tiempo y una parte significativa de las imágenes en galerías investigativas no son recientes. El rendimiento en imágenes envejecidas, de baja resolución, ocultas o no frontales debería tratarse como métricas de primera clase. Donde no haya métricas específicas disponibles, el enfoque conservador es asumir un mayor riesgo de error en dichas imágenes y establecer umbrales más altos para cualquier búsqueda que pueda precipitar una acción adversa.

  • Probar todo el proceso de decisión. Las búsquedas uno a muchos generan listas de candidatos, no identificaciones definitivas. Las evaluaciones deberían cuantificar cómo el ranking de candidatos y la ubicación de los umbrales desplazan los falsos positivos a medida que las galerías escalan, y cómo las prácticas de revisión humana pueden corregir o agravar dichos errores. Sin que ICE publique sus umbrales, algoritmos o precisión operativa, el mapeo de riesgos externos a producción sigue siendo inferencial, otra razón para priorizar pruebas operativamente alineadas y divulgación.

En este modelo, los benchmarkings al estilo NIST siguen siendo esenciales pero insuficientes; las pruebas operacionales por parte de agencias, vinculadas explícitamente a las versiones que despliegan y las galerías que consultan, se convierten en el diferenciador entre rendimiento teórico y fiabilidad de campo.

Mitigando las diferencias demográficas: calibración, umbrales conscientes de la calidad e informes de confianza

Las diferencias demográficas en falsos positivos y falsos negativos son una característica documentada de muchos sistemas de reconocimiento facial, variando según el proveedor, la versión y la condición de la imagen. Para la aplicación de la ley de inmigración, donde las consecuencias adversas tienen grandes repercusiones y las barreras al debido proceso pueden ser significativas, la mitigación debe estar integrada en la forma en que los sistemas están configurados y en la forma en que se comunican los resultados.

flowchart TD
 A["Inicio: Identificar diferencias demográficas"] --> B[Calibrar sistemas según el caso de uso]
 B --> C["Establecer mayor precisión para búsquedas 1:N"]
 C --> D[Documentar umbrales públicamente]
 D --> E[Reducir riesgos de falsos positivos]
 E --> F[Incorporar umbrales conscientes de la calidad]
 F --> G["Fin: Comunicación mejorada de resultados"]

Este diagrama de flujo ilustra las estrategias de mitigación para las diferencias demográficas en los sistemas de reconocimiento facial, enfatizando la calibración, los umbrales conscientes de la calidad y la mejora en la comunicación de los resultados.

Una pila de mitigación pragmática debería incluir:

  • Calibración específica del caso de uso. Las búsquedas investigativas uno a muchos deberían priorizar la precisión sobre el recuerdo cuando podrían seguir acciones adversas. Las agencias ya tienen autoridad para establecer umbrales por caso de uso; codificar mayor precisión para el uso investigativo 1:N y documentarlo públicamente reduciría la probabilidad de que un falso positivo se traduzca en medidas de cumplimiento.

  • Umbrales conscientes de la calidad. Dado que las imágenes no restringidas o envejecidas degradan el rendimiento, las políticas de umbral deberían incorporar señales de calidad de captura. Mientras que mecanismos de puntuación de calidad específicos no se describen públicamente para los sistemas de ICE, el enfoque de política es claro: elevar los umbrales de coincidencia y reducir el tamaño de las listas de candidatos cuando la calidad de la imagen es pobre o cuando las imágenes son antiguas, y registrar esos ajustes como parte del registro de auditoría.

  • Confianza que significa algo. Muchos sistemas faciales devuelven puntuaciones de similitud en bruto con interpretación poco clara. El informe de confianza debería estar calibrado a la realidad operativa, mapeando las puntuaciones a probabilidades empíricamente validadas bajo tamaños de galería específicos y condiciones de imagen, y emparejado con asesores explícitos de que las coincidencias son pistas que requieren corroboración. Donde las agencias no puedan proporcionar probabilidades calibradas debido a la falta de métricas disponibles, el respaldo debe ser un umbral conservador y requisitos estrictos de corroboración.

  • Monitoreo demográfico continuo. Cuando las agencias seleccionan algoritmos y versiones, deberían publicar medidas agregadas de precisión y disparidad para las condiciones de imagen que encuentran, no solo puntuaciones de laboratorio reportadas por los proveedores. Los contratos con proveedores comerciales deberían exigir participación en pruebas independientes actualizadas y transparencia en cuanto al linaje del algoritmo.

El objetivo no es una promesa de paridad bajo todas las condiciones, lo cual puede no ser técnicamente alcanzable hoy; es una postura política transparente y probada que minimiza el daño donde persisten las disparidades.

El riesgo de una coincidencia falsa se multiplica cuando la galería es vasta, heterogénea y construida a partir de imágenes de origen incierto. La aplicación de la ley de inmigración se sienta en la intersección de múltiples fuentes de datos: los propios repositorios biométricos de DHS; imágenes de DMV estatales enrutadas a través de procesos legalmente restringidos; agregados de fotos de fichas de corredores de datos; y imágenes recopiladas de la web accesibles a través de herramientas de búsqueda comercial. Cada fuente conlleva diferentes obligaciones legales y riesgos de libertades civiles.

Una estrategia de galería con visión de futuro debería realizar tres cosas:

  • Minimización por propósito. Los sistemas de DHS ya proporcionan acceso basado en roles y restricciones de propósito; las galerías faciales deberían ser curadas al alcance más pequeño consistente con un caso de uso documentado. Eso significa separar las inscripciones de verificación uno a uno de ATD de galerías investigativas amplias, desalentando la mezcla con conjuntos de datos comerciales sin necesidad articulada, y limitando explícitamente la retención de imágenes y resultados de coincidencia vinculados a investigaciones cerradas.

  • Verificar origen legal. El acceso gubernamental a conjuntos de datos recopilados de la web sigue siendo legalmente problemático para los derechos de privacidad y asociación, incluso cuando los proveedores continúan vendiendo a clientes del sector público. Las agencias deberían preferir galerías con una clara procedencia legal y restringir o condicionar el uso de conjuntos de datos recopilados a escenarios donde las barreras de corroboración son más altas y la supervisión es más fuerte.

  • Registrar y etiquetar en la ingesta. Cada imagen añadida a una galería buscable debería llevar metadatos sobre su fuente, fecha, condición de captura y proceso legal utilizado para obtenerla. El etiquetado transparente permite a los sistemas descendentes ajustar umbrales y políticas de decisión, ajustándose cuando la procedencia es débil o la imagen está anticuada, y hace que las auditorías sean significativas.

A medida que las leyes estatales en lugares como Washington, Massachusetts y Maine centralizan y limitan las búsquedas faciales, los controles técnicos deben codificar esos procedimientos, asegurando que las solicitudes sean enrutadas a través de las entidades estatales requeridas y que los registros del sistema reflejen el proceso legal utilizado.

Revisión Humana Asistida por Máquina: Triaje, Explicabilidad y Soporte a la Decisión

La política de DHS es inequívoca: los resultados de reconocimiento facial son pistas investigativas, no identificaciones definitivas, y requieren revisión y corroboración humana capacitada. Ese mandato solo funciona si el software lo respalda en el punto de uso.

Características clave de interfaz y flujo de trabajo pueden hacer que esa política sea real:

  • Triaje estructurado para listas de candidatos. Las salidas uno a muchos deberían presentar conjuntos compactos de candidatos con indicadores de calidad de imagen, fechas de captura y etiquetas de procedencia, junto con herramientas para eliminación rápida basada en atributos no faciales (diferencias de edad, tatuajes conocidos, discrepancias de altura cuando están disponibles). Los sistemas deberían predeterminar listas de candidatos más pequeñas cuando pueden seguir acciones adversas.

  • Explicabilidad al nivel que importa. Los investigadores necesitan saber por qué se propuso un rostro: ¿Están alineados los puntos clave de referencia facial? ¿Era de baja resolución o parcialmente oculta la imagen de origen? Incluso superposiciones básicas y comparaciones lado a lado, combinadas con una advertencia narrativa cuando la calidad de imagen es pobre, pueden reducir la dependencia excesiva en coincidencias débiles.

  • Caminos de escalamiento de errores. Para la verificación uno a uno en programas como ATD, los falsos no coincidentes pueden parecer incumplimientos. Las interfaces deberían señalar claramente capturas de baja calidad, solicitar una nueva captura y proporcionar métodos alternativos de verificación antes de escalar a medidas de cumplimiento. Para uno a muchos, los flujos de trabajo deberían requerir al menos dos factores de corroboración independientes más allá de una coincidencia facial antes de avanzar a listados de vigilancia, retenciones o arrestos.

  • Auditoría inmutable y rendición de cuentas del revisor. Las decisiones humanas —aceptar o rechazar un candidato, escalar una verificación fallida— deberían registrarse con la identidad del revisor y su lógica. Muestrear esos registros para revisiones de cumplimiento transforma la política de lo teórico a la práctica y crea el registro necesario para la corrección.

Estos no son adornos; son el tejido conectivo que permite que las políticas de “solo pistas” resistan las presiones investigativas del mundo real.

Hojas de Ruta de Transparencia: Inventarios, Informes Públicos de Precisión y Publicación de Auditorías

Los cuerpos de supervisión ya han resaltado que los componentes de cumplimiento de la ley federal no han inventariado consistentemente su uso de sistemas faciales no federales. Sin inventarios, no puede haber una política coherente de umbrales, ni una información de precisión significativa al público, ni un rastro de auditoría creíble.

Una hoja de ruta de transparencia que coincida con el momento incluye:

  • Un inventario en vivo de cada caso de uso de reconocimiento facial en ICE, incluyendo los algoritmos y versiones específicas en uso, las galerías accesadas, y los umbrales operacionales por contexto. El inventario debería enlazar a las PIAs y SORNs actuales.

  • Resúmenes anuales de precisión y disparidad vinculados a condiciones operativas. En lugar de gráficos genéricos de proveedores, publicar tasas de coincidencia agregadas, tendencias de falsos positivos y cualquier monitoreo demográfico realizado para las imágenes y galerías que ICE realmente usa. Donde métricas operacionales no estén disponibles hoy, decirlo y establecer un plazo para recolectarlas.

  • Estadísticas de uso y cumplimiento. Conteos agregados de búsquedas, verificaciones uno a uno, tamaños de listas de candidatos, falsos positivos identificados y correcciones, y la proporción de casos donde las coincidencias faciales fueron corroboradas por evidencia independiente. Incluso un reporte reconciso sería un cambio significativo respecto a la opacidad actual.

  • Publicación de auditorías. Resúmenes de auditorías internas que prueben si las reglas de “solo pistas” se respetaron en la práctica y si las herramientas externas se usaron dentro de la política documentada. Si una herramienta no puede cumplir requisitos mínimos de transparencia y auditabilidad, debería ser retirada.

Al pasar de manuales de política a métricas públicas, ICE puede reducir la especulación, invitar al escrutinio independiente, y construir el hábito de la gestión de precisión alineada operativamente.

Corrección Construida para la Aplicación de la Ley de Inmigración: Notificación, Plazos y Corrección de Múltiples Sistemas

La aplicación de la ley de inmigración plantea preocupaciones de debido proceso que intensifican el costo del error: los individuos pueden enfrentar detención o deportación, a menudo con visibilidad limitada sobre la evidencia utilizada en su contra. Un canal de corrección general para viajes existe dentro de DHS, pero no garantiza vías de divulgación y corrección adaptadas al reconocimiento facial en contextos de remoción o detención.

Un modelo creíble de corrección para este dominio incluiría:

  • Desencadenantes de notificación. Los individuos deberían ser notificados cuando el reconocimiento facial contribuyó a una acción adversa —como un arresto, retención, detención, o la negación de un beneficio— sujeto a excepciones muy específicas. La notificación debería explicar cómo impugnar la coincidencia.

  • Plazos y adjudicación. Establecer plazos claros para que ICE revise envíos de corrección, acceda a las imágenes subyacentes y registros, y tome una decisión. Donde el reconocimiento facial informó un expediente de caso, el individuo y su abogado deberían poder obtener los resultados de coincidencia, listas de candidatos y notas de revisión humana consistentes con las protecciones legales.

  • Corrección de múltiples sistemas. Los errores a menudo se propagan a través de sistemas. Cuando una identificación errónea se confirma, la corrección debería propagarse a través de HART/IDENT, la base de datos de casos de cumplimiento y cualquier sistema asociado o comercial donde se almacenó o compartió el enlace erróneo. El registro debería capturar la ruta de corrección.

  • Accesibilidad. El soporte de idioma, los puntos de contacto de ayuda legal y las opciones de envío no digitales deberían ser estándar. Sin canales accesibles, la corrección existe en teoría pero no en práctica.

Nada de esto elimina el error; limita el daño y acorta la duración del efecto nocivo cuando sucede.

Estándares Legales Futuros: Construyendo Barreras Constitucionales y Estatales en el Diseño

El derecho constitucional aún está poniéndose al día. La doctrina de la Cuarta Enmienda está evolucionando para la vigilancia digital, planteando preguntas sobre cuándo las búsquedas masivas de galerías constituyen un “registro” que requiere una orden judicial. Las preocupaciones de la Primera Enmienda surgen cuando el reconocimiento facial identifica a participantes en protestas o reuniones religiosas, potencialmente enfriando el discurso y la asociación. El debido proceso en los contextos de inmigración añade complejidad cuando el acceso a evidencia algorítmica es limitado.

El diseño técnico puede anticiparse y ayudar a satisfacer estos estándares:

  • Control de orden y procesos. Las leyes estatales en varias jurisdicciones ahora requieren proceso legal y enrutamiento específico para búsquedas faciales. Los sistemas deberían hacer cumplir esos controles por diseño: ninguna consulta sin autoridad legal documentada; ninguna búsqueda en galerías de DMV sin aprobación centralizada estatal; ninguna vía rápida alrededor de órdenes judiciales donde los estatutos lo requieran.

  • Vinculación de propósito y minimización. Codificar “vinculación de propósito” para que una búsqueda facial autorizada para una investigación no pueda ser reutilizada silenciosamente para otra. Víncular períodos de retención al caso de uso específico, con avisos para revisión y eliminación donde la política lo requiera.

  • Registro inmutable y ganchos de divulgación. Los registros inmutables y a prueba de manipulaciones apoyan tanto la revisión judicial como la responsabilidad pública. Construir ganchos de divulgación para que, cuando sea legalmente apropiado, los individuos afectados puedan obtener sus registros sin requerir scripts personalizados.

  • Coexistencia con las libertades civiles. Cuando los casos de uso tocan la asociación expresiva —por ejemplo, identificación masiva alrededor de protestas— requerir umbrales más altos, listas de candidatos más estrechas y estándares de corroboración explícitos, o deshabilitar esos canales de búsqueda a menos que haya autoridad legal extraordinaria.

Los estándares legales seguirán evolucionando, pero anclar los sistemas en la visibilidad de proceso, la limitación de propósito y el registro robusto prepara a las agencias para el escrutinio y reduce el riesgo de abuso.

Conclusión

El reconocimiento facial dentro de la aplicación de la ley de inmigración está entrando en una fase consecuente. La precisión ha mejorado, pero los usos más arriesgados siguen siendo los más arriesgados: búsquedas uno a muchos a través de galerías grandes y heterogéneas donde las diferencias demográficas y las condiciones de imagen pobres colisionan. Las políticas ya dicen las cosas correctas: tratar las coincidencias como pistas, requerir revisión humana, realizar auditorías. El trabajo definitorio ahora es operacional: alinear las evaluaciones con galerías del mundo real y envejecimiento, establecer y publicar umbrales que reflejen el riesgo de misión, tizar el origen y minimización de la galería, equipar revisores humanos con herramientas para manejar errores y establecer una corrección que funcione en el contexto de inmigración. Lograr eso, y la próxima ola de tecnología facial será medida no solo por benchmarks, sino por un rendimiento responsable en el campo. ✅

Puntos clave a recordar:

  • Umbrales transparentes y específicos del caso de uso son fundamentales para la gestión del riesgo en búsquedas uno a muchos.
  • La auditoría de sesgos debe estar operacionalmente fundamentada, por tamaño de galería, calidad de imagen y envejecimiento, no solo por puntuaciones de laboratorio de proveedores.
  • El origen legal de los datos y la minimización de galería son estrategias de precisión y salvaguardas de libertades civiles.
  • La revisión humana asistida por máquina convierte la política de “solo pistas” en práctica y crea los registros de los que depende la corrección.
  • Las barreras constitucionales y estatales deben codificarse en el diseño del sistema a través de control de órdenes, vinculación de propósito y auditoría inmutable.

Próximos pasos accionables:

  • Publicar un inventario a nivel de la agencia de algoritmos, versiones, galerías y umbrales por caso de uso.
  • Ejecutar evaluaciones de precisión y disparidad alineadas operacionalmente y liberar resúmenes anuales.
  • Contratar solo con proveedores que participen en pruebas independientes con linaje transparente y fuentes de datos permisibles.
  • Pilotear interfaces de revisión humana que impongan corroboración y registren decisiones del revisor.
  • Lanzar un canal de corrección específico de ICE con desencadenantes de notificación, plazos de adjudicación y corrección de múltiples sistemas.

La tecnología seguirá mejorando; la pregunta es si la gobernanza, la transparencia y la corrección siguen el ritmo. Las agencias que ganan la próxima fase no solo comprarán los mejores algoritmos, sino que construirán los sistemas más responsables.

Fuentes y Referencias

www.nist.gov
NIST Face Recognition Vendor Test (FRVT) Program Documents accuracy gains and ongoing demographic differentials, grounding calls for operationally aligned evaluations and threshold policies.
nvlpubs.nist.gov
NISTIR 8280: Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects Establishes evidence of demographic disparities and the impact of unconstrained images, informing calibration and bias mitigation strategies.
www.dhs.gov
DHS/OBIM/PIA-004 HART Increment 1 Describes configurable thresholds, logging, and access controls in DHS’s next-gen biometric system that ICE uses, supporting transparency and audit recommendations.
www.dhs.gov
DHS/OBIM-001 IDENT SORN Defines permitted uses, sharing, and retention for DHS biometric systems, relevant to gallery provenance, minimization, and multi-system correction.
www.dhs.gov
DHS/ALL/PIA-062 DHS Use of Facial Recognition Technology Sets department-wide policy: facial matches as investigative leads, human review, corroboration, training, and auditing requirements.
www.gao.gov
GAO-21-518: Federal Law Enforcement Use of Facial Recognition Technology Finds gaps in inventory and oversight of non-federal tools, underscoring the need for algorithm/version inventories and audit publication.
www.dhs.gov
DHS/ICE/PIA-048: ERO Alternatives to Detention (ATD) Details one-to-one facial verification in SmartLINK, supporting discussion of false non-matches, escalation, and interface requirements.
www.washingtonpost.com
ICE has run facial-recognition searches on millions of Americans’ driver’s license photos Provides verified context on ICE use of state DMV galleries and the need to encode state-law procedural gates into system design.
malegislature.gov
Massachusetts Session Laws 2020, Chapter 253 Shows state centralization and warrant requirements for government face searches, informing technical gating and logging recommendations.
apps.leg.wa.gov
Washington State RCW 43.386 (Facial Recognition) Establishes accountability and court oversight mechanisms for facial recognition, shaping access and procedural design for state-facilitated searches.
legislature.maine.gov
Maine Statutes, Title 25 §6001 Facial Surveillance Imposes strong limits on government facial surveillance, relevant to constraints on state-run search channels and provenance considerations.
www.aclu-il.org
ACLU v. Clearview AI Explains litigation limiting private-sector sales while permitting government use under conditions, relevant to commercial gallery access and risk.
www.dhs.gov
DHS/ICE/PIA-045: Investigative Case Management (ICM) Governs how investigative data and external tool outputs are stored and accessed, supporting audit and multi-system correction proposals.
www.dhs.gov
DHS/ICE/PIA-032: FALCON Search & Analysis (FALCON-SA) Describes analytics platforms that can host images and ingest outputs from external tools, tying interface/audit needs to investigative workflows.
www.dhs.gov
DHS/ICE/PIA-039: Enforcement Integrated Database (EID) Identifies the central enforcement case repository where biometric-linked records persist, underscoring the need for multi-system correction and retention controls.

Advertisement