ai 8 min • intermediate

Manual Operativo para la Coincidencia Facial del ICE: Políticas de Umbral, Revisión Humana y Corrección de Errores

Guía de implementación paso a paso para reducir el riesgo de identificación errónea en investigaciones 1:N y verificación 1:1 con ATD

Por AI Research Team
Manual Operativo para la Coincidencia Facial del ICE: Políticas de Umbral, Revisión Humana y Corrección de Errores

markdown

Manual Operativo para el Reconocimiento Facial de ICE: Políticas de Umbrales, Revisión Humana y Corrección de Errores

Una década de rápidos avances en precisión en el reconocimiento facial no ha eliminado el riesgo central: una falsa coincidencia puede propagarse a través de los sistemas de cumplimiento, mientras que una falsa no coincidencia puede etiquetar incorrectamente a un participante cumplidor como incumplidor. Dentro del DHS, existen umbrales configurables en HART, políticas solo de liderazgo y registros de auditoría; en el campo, los equipos de investigación complementan los sistemas del DHS con herramientas comerciales y repositorios de imágenes intermediadas, y el programa ATD realiza verificaciones uno a uno en SmartLINK de BI Inc. Sin embargo, las versiones de algoritmos, colecciones y umbrales operativos permanecen no revelados públicamente, y la supervisión ha señalado brechas en el inventario de herramientas no federales. Esa combinación de capacidades poderosas, gobernanza desigual y transparencia incompleta exige un manual operativo concreto.

Esta guía proporciona un plano de implementación paso a paso para reducir el riesgo de identificación incorrecta en dos contextos distintos: búsquedas investigativas uno a muchos y verificación uno a uno en ATD. Los gerentes del programa y analistas encontrarán orientación práctica para definir casos de uso y objetivos de precisión-revocación; establecer, documentar y recalibrar umbrales con control de cambios; diseñar flujos de trabajo de revisión humana y corroboración; manejar falsas no coincidencias en ATD; construir pistas auditables; hacer cumplir la gobernanza de proveedores con requisitos basados en FRVT; y ejecutar procedimientos de reparación y corrección que corrijan los registros en HART/EID y propaguen correcciones a los socios.

Definir casos de uso y objetivos de precisión-revocación

Comience separando los dos contextos operativos y sus perfiles de riesgo. Las búsquedas investigativas uno a muchos (1:N) generan listas de candidatos contra grandes colecciones heterogéneas. La verificación uno a uno (1:1) confirma una identidad afirmada, típicamente en condiciones más controladas. Estas tareas no son intercambiables, y el equilibrio aceptable entre falsos positivos y falsos negativos difiere.

  • Investigaciones uno a muchos

  • Propósito: Generar pistas de investigación, nunca identificaciones definitivas.

  • Factores de riesgo: Grandes colecciones (por ejemplo, registros de frontera/inmigración, fotos de detenciones históricas, imágenes extraídas de la web), fotos de prueba no restringidas o envejecidas, y diferencias demográficas documentadas en pruebas independientes.

  • Objetivo: Favorecer la precisión cuando podrían seguirse acciones adversas, suprimiendo falsos positivos que puedan desencadenar vigilancia, detenciones o arrestos a posteriori. Tratar todos los resultados como pistas que requieren corroboración.

  • Verificación uno a uno (ATD)

  • Propósito: Verificar la identidad de un participante inscrito durante los registros.

  • Factores de riesgo: Condiciones de captura (iluminación, pose, oclusiones), variabilidad de dispositivos, imágenes envejecidas.

  • Objetivo: Favorecer bajas tasas de falsas no coincidencias para evitar que los errores técnicos generen banderas de incumplimiento; mantener controles estrictos para minimizar aceptaciones falsas.

Donde no haya métricas operativas específicas disponibles, articule resultados objetivos cualitativamente y vincúlelos a las consecuencias de decisiones. Por ejemplo, una búsqueda 1:N utilizada para priorizar pasos investigativos debería tolerar menos falsos positivos que una búsqueda 1:N que alimente un triage analítico amplio. Y una verificación 1:1 utilizada para decidir sanciones administrativas debería priorizar bajas tasas de falsas no coincidencias e incorporar rutas de remediación rápidas.

Base de comparación

DimensiónInvestigaciones 1:NVerificación 1:1 ATD
Objetivo principalGenerar pistasConfirmar reclamación de identidad
Condiciones de imagenA menudo no restringidas, heterogéneasCapturas controladas a través de la app
Postura de umbralMayor precisión para reducir falsos positivosMenor falsedad de no coincidencia mientras se mantiene la seguridad
Revisión humanaVerificación obligatoria de pistas y corroboraciónRevisión obligatoria de no coincidencias antes de cualquier penalización
Implicaciones descendentesPosible inclusión en listas de vigilancia, detenciones, arrestosBanderas de cumplimiento que afectan la supervisión

Ya existen anclas políticas: HART permite umbrales configurables por caso de uso; DHS requiere tratar las coincidencias como pistas con revisión humana, corroboración y auditoría; ATD describe el almacenamiento 1:1 de imágenes y resultados de coincidencias con acceso basado en roles. Utilice estos límites para formalizar objetivos específicos de la misión y documentarlos en un inventario de casos de uso por escrito.

Políticas de umbral: establecimiento, documentación y recalibración

Los umbrales determinan el intercambio entre falsos positivos y falsos negativos. Son configurables dentro de HART, pero los valores específicos utilizados operativamente no son públicos. Las herramientas comerciales y las plataformas de datos intermediados pueden integrar umbrales propietarios o exponer controles limitados. Para gestionar el riesgo de manera consistente:

  1. Publique una política interna de umbrales por caso de uso
  • Defina la postura del umbral por contexto (por ejemplo, pistas 1: N con alta precisión; verificaciones 1:1 con baja falsedad de no coincidencia).
  • Declare que las salidas 1:N no pueden usarse como bases únicas para la acción y deben pasar por revisión humana y corroboración.
  • Documente las colecciones a las que se accedió (por ejemplo, repositorios del DHS, cualquier búsqueda facilitada por el estado, colecciones comerciales) y las condiciones de imagen anticipadas.
  1. Aplique el control de cambios y las aprobaciones de riesgo
  • Requiera tickets de control de cambios para cualquier ajuste de umbral, con justificación vinculada a los objetivos de uso del caso y evaluaciones de riesgo.
  • Obligue a obtener aprobaciones de la dirección del programa, privacidad y legal para los cambios que puedan afectar materialmente las tasas de falsos positivos/negativos o decisiones descendentes.
  • Registre el proveedor y versión del algoritmo utilizado cuando se conozca; si un sistema no expone públicamente las versiones, exija que el proveedor atestigüe la genealogía del algoritmo y la cadencia de actualizaciones como parte de la gobernanza.
  1. Recalibre periódicamente frente a condiciones reales de imagen
  • Utilice pruebas independientes (por ejemplo, participación de proveedores en benchmarks reconocidos) para anclar expectativas, reconociendo que las imágenes de producción pueden diferir de los conjuntos de prueba.
  • Realice controles internos de coherencia utilizando muestras desidentificadas representativas de pruebas y colecciones reales, centrándose en modos de falla como pose no frontal, oclusiones, poca luz y fotos envejecidas.
  • Revise los umbrales tras cambios materiales: actualizaciones de algoritmos, cambios en la composición de la galería o nuevas restricciones legales (por ejemplo, leyes estatales que alteren el acceso a búsquedas de DMV o impongan requisitos procesales).
  1. Alinee el uso externo con los marcos legales
  • Para búsquedas de DMV estatales, cumpla con los requisitos jurisdiccionales como enrutamiento centralizado, órdenes judiciales o mandatos judiciales cuando sea aplicable. Registre el proceso legal utilizado junto con la configuración de umbrales y los resultados.
  • Para herramientas comerciales, requiera documentación de cualquier umbral y control oculto y asegúrese de que las salidas se traten como pistas con requisitos de corroboración explícitos.

No hay objetivos numéricos específicos disponibles públicamente; la política debería centrarse, por tanto, en objetivos cualitativos, impactos de decisiones y justificación auditable de las elecciones.

Flujo de trabajo de revisión humana y gestión de falsas no coincidencias en ATD

Los algoritmos producen puntuaciones; las personas toman decisiones. El flujo de trabajo debe garantizar que los analistas capacitados revisen candidatos de manera consistente, apliquen estándares de corroboración y documenten los resultados. Para ATD, el flujo de trabajo debe evitar que errores técnicos se conviertan en violaciones de cumplimiento.

Fuentes y Referencias

www.dhs.gov
DHS/OBIM/PIA-004 HART Increment 1 Confirms configurable thresholds, access controls, and audit logging in DHS’s next-generation biometric system used by ICE.
www.dhs.gov
DHS/ALL/PIA-062 DHS Use of Facial Recognition Technology Sets department-wide policies to treat matches as investigative leads, require human review, corroboration, and auditing.
www.dhs.gov
DHS/ICE/PIA-048 ERO Alternatives to Detention (ATD) Describes 1:1 facial verification in SmartLINK, storage of images and match results, and auditing in the ATD program.
www.gao.gov
GAO-21-518 Federal Law Enforcement Use of Facial Recognition Technology Documents governance gaps in agencies’ inventories and policy for non-federal facial recognition tools, informing vendor oversight.
apps.leg.wa.gov
Washington State RCW 43.386 Facial Recognition Illustrates state-level constraints and oversight mechanisms relevant to state-facilitated face searches.
malegislature.gov
Massachusetts Session Laws 2020, Chapter 253 Shows centralized procedures and legal process requirements for face searches affecting ICE access to state channels.
legislature.maine.gov
Maine Statutes, 25 §6001 Facial Surveillance Provides an example of strong state limits on government facial surveillance that indirectly constrain state-facilitated searches.
www.dhs.gov
DHS/OBIM-001 IDENT SORN Details permitted uses, routine disclosures, and retention that affect error propagation and remediation across DHS systems.
www.dhs.gov
DHS/ICE/PIA-039 Enforcement Integrated Database (EID) Explains EID’s role in storing enforcement case data and the need to correct misidentifications across core systems.
www.dhs.gov
DHS/ICE/PIA-045 Investigative Case Management (ICM) Governs investigative data handling and supports the case-note and correction workflows described in the playbook.
www.nist.gov
NIST FRVT Program Provides independent algorithm performance context and motivates vendor participation and threshold calibration practices.
nvlpubs.nist.gov
NISTIR 8280 Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects Documents demographic differentials and error-pattern variability critical to designing human review and corroboration.
www.washingtonpost.com
Washington Post: ICE has run face recognition searches of state driver’s licenses Establishes historical use of state DMV repositories and the need for formal legal process and logging.

Advertisement