markdown
Manual Operativo para el Reconocimiento Facial de ICE: Políticas de Umbrales, Revisión Humana y Corrección de Errores
Una década de rápidos avances en precisión en el reconocimiento facial no ha eliminado el riesgo central: una falsa coincidencia puede propagarse a través de los sistemas de cumplimiento, mientras que una falsa no coincidencia puede etiquetar incorrectamente a un participante cumplidor como incumplidor. Dentro del DHS, existen umbrales configurables en HART, políticas solo de liderazgo y registros de auditoría; en el campo, los equipos de investigación complementan los sistemas del DHS con herramientas comerciales y repositorios de imágenes intermediadas, y el programa ATD realiza verificaciones uno a uno en SmartLINK de BI Inc. Sin embargo, las versiones de algoritmos, colecciones y umbrales operativos permanecen no revelados públicamente, y la supervisión ha señalado brechas en el inventario de herramientas no federales. Esa combinación de capacidades poderosas, gobernanza desigual y transparencia incompleta exige un manual operativo concreto.
Esta guía proporciona un plano de implementación paso a paso para reducir el riesgo de identificación incorrecta en dos contextos distintos: búsquedas investigativas uno a muchos y verificación uno a uno en ATD. Los gerentes del programa y analistas encontrarán orientación práctica para definir casos de uso y objetivos de precisión-revocación; establecer, documentar y recalibrar umbrales con control de cambios; diseñar flujos de trabajo de revisión humana y corroboración; manejar falsas no coincidencias en ATD; construir pistas auditables; hacer cumplir la gobernanza de proveedores con requisitos basados en FRVT; y ejecutar procedimientos de reparación y corrección que corrijan los registros en HART/EID y propaguen correcciones a los socios.
Definir casos de uso y objetivos de precisión-revocación
Comience separando los dos contextos operativos y sus perfiles de riesgo. Las búsquedas investigativas uno a muchos (1:N) generan listas de candidatos contra grandes colecciones heterogéneas. La verificación uno a uno (1:1) confirma una identidad afirmada, típicamente en condiciones más controladas. Estas tareas no son intercambiables, y el equilibrio aceptable entre falsos positivos y falsos negativos difiere.
-
Investigaciones uno a muchos
-
Propósito: Generar pistas de investigación, nunca identificaciones definitivas.
-
Factores de riesgo: Grandes colecciones (por ejemplo, registros de frontera/inmigración, fotos de detenciones históricas, imágenes extraídas de la web), fotos de prueba no restringidas o envejecidas, y diferencias demográficas documentadas en pruebas independientes.
-
Objetivo: Favorecer la precisión cuando podrían seguirse acciones adversas, suprimiendo falsos positivos que puedan desencadenar vigilancia, detenciones o arrestos a posteriori. Tratar todos los resultados como pistas que requieren corroboración.
-
Verificación uno a uno (ATD)
-
Propósito: Verificar la identidad de un participante inscrito durante los registros.
-
Factores de riesgo: Condiciones de captura (iluminación, pose, oclusiones), variabilidad de dispositivos, imágenes envejecidas.
-
Objetivo: Favorecer bajas tasas de falsas no coincidencias para evitar que los errores técnicos generen banderas de incumplimiento; mantener controles estrictos para minimizar aceptaciones falsas.
Donde no haya métricas operativas específicas disponibles, articule resultados objetivos cualitativamente y vincúlelos a las consecuencias de decisiones. Por ejemplo, una búsqueda 1:N utilizada para priorizar pasos investigativos debería tolerar menos falsos positivos que una búsqueda 1:N que alimente un triage analítico amplio. Y una verificación 1:1 utilizada para decidir sanciones administrativas debería priorizar bajas tasas de falsas no coincidencias e incorporar rutas de remediación rápidas.
Base de comparación
| Dimensión | Investigaciones 1:N | Verificación 1:1 ATD |
|---|---|---|
| Objetivo principal | Generar pistas | Confirmar reclamación de identidad |
| Condiciones de imagen | A menudo no restringidas, heterogéneas | Capturas controladas a través de la app |
| Postura de umbral | Mayor precisión para reducir falsos positivos | Menor falsedad de no coincidencia mientras se mantiene la seguridad |
| Revisión humana | Verificación obligatoria de pistas y corroboración | Revisión obligatoria de no coincidencias antes de cualquier penalización |
| Implicaciones descendentes | Posible inclusión en listas de vigilancia, detenciones, arrestos | Banderas de cumplimiento que afectan la supervisión |
Ya existen anclas políticas: HART permite umbrales configurables por caso de uso; DHS requiere tratar las coincidencias como pistas con revisión humana, corroboración y auditoría; ATD describe el almacenamiento 1:1 de imágenes y resultados de coincidencias con acceso basado en roles. Utilice estos límites para formalizar objetivos específicos de la misión y documentarlos en un inventario de casos de uso por escrito.
Políticas de umbral: establecimiento, documentación y recalibración
Los umbrales determinan el intercambio entre falsos positivos y falsos negativos. Son configurables dentro de HART, pero los valores específicos utilizados operativamente no son públicos. Las herramientas comerciales y las plataformas de datos intermediados pueden integrar umbrales propietarios o exponer controles limitados. Para gestionar el riesgo de manera consistente:
- Publique una política interna de umbrales por caso de uso
- Defina la postura del umbral por contexto (por ejemplo, pistas 1: N con alta precisión; verificaciones 1:1 con baja falsedad de no coincidencia).
- Declare que las salidas 1:N no pueden usarse como bases únicas para la acción y deben pasar por revisión humana y corroboración.
- Documente las colecciones a las que se accedió (por ejemplo, repositorios del DHS, cualquier búsqueda facilitada por el estado, colecciones comerciales) y las condiciones de imagen anticipadas.
- Aplique el control de cambios y las aprobaciones de riesgo
- Requiera tickets de control de cambios para cualquier ajuste de umbral, con justificación vinculada a los objetivos de uso del caso y evaluaciones de riesgo.
- Obligue a obtener aprobaciones de la dirección del programa, privacidad y legal para los cambios que puedan afectar materialmente las tasas de falsos positivos/negativos o decisiones descendentes.
- Registre el proveedor y versión del algoritmo utilizado cuando se conozca; si un sistema no expone públicamente las versiones, exija que el proveedor atestigüe la genealogía del algoritmo y la cadencia de actualizaciones como parte de la gobernanza.
- Recalibre periódicamente frente a condiciones reales de imagen
- Utilice pruebas independientes (por ejemplo, participación de proveedores en benchmarks reconocidos) para anclar expectativas, reconociendo que las imágenes de producción pueden diferir de los conjuntos de prueba.
- Realice controles internos de coherencia utilizando muestras desidentificadas representativas de pruebas y colecciones reales, centrándose en modos de falla como pose no frontal, oclusiones, poca luz y fotos envejecidas.
- Revise los umbrales tras cambios materiales: actualizaciones de algoritmos, cambios en la composición de la galería o nuevas restricciones legales (por ejemplo, leyes estatales que alteren el acceso a búsquedas de DMV o impongan requisitos procesales).
- Alinee el uso externo con los marcos legales
- Para búsquedas de DMV estatales, cumpla con los requisitos jurisdiccionales como enrutamiento centralizado, órdenes judiciales o mandatos judiciales cuando sea aplicable. Registre el proceso legal utilizado junto con la configuración de umbrales y los resultados.
- Para herramientas comerciales, requiera documentación de cualquier umbral y control oculto y asegúrese de que las salidas se traten como pistas con requisitos de corroboración explícitos.
No hay objetivos numéricos específicos disponibles públicamente; la política debería centrarse, por tanto, en objetivos cualitativos, impactos de decisiones y justificación auditable de las elecciones.
Flujo de trabajo de revisión humana y gestión de falsas no coincidencias en ATD
Los algoritmos producen puntuaciones; las personas toman decisiones. El flujo de trabajo debe garantizar que los analistas capacitados revisen candidatos de manera consistente, apliquen estándares de corroboración y documenten los resultados. Para ATD, el flujo de trabajo debe evitar que errores técnicos se conviertan en violaciones de cumplimiento.