ai 5 min • intermediate

Las Normas FCRA Encuentran la Contratación de IA en 2026: Perfil de Riesgo de Eightfold AI y los Controles que Importan

A medida que los reguladores endurecen las expectativas de la Ley de Informes de Crédito Justos para los corredores de datos y el cribado automatizado, los proveedores de contratación de IA enfrentan una elección clara: evitar las características de las agencias de informes de consumo por diseño o funcionar como una CRA con plena precisión, divulgación y procesos de disputa

Por AI Research Team
Las Normas FCRA Encuentran la Contratación de IA en 2026: Perfil de Riesgo de Eightfold AI y los Controles que Importan

Normas FCRA Encuentran Contratación con IA en 2026: Perfil de Riesgo de Eightfold AI y los Controles que Importan

Al comenzar 2026, la tecnología de contratación impulsada por IA choca directamente con los estándares neutrales en tecnología de la Ley de Informes de Crédito Justo. El mensaje de los reguladores y tribunales es simple: los resultados automatizados no están fuera de la ley. Si un proveedor proporciona información individualizada relevante para el empleo y actúa como una agencia de informes de consumo, las obligaciones de la FCRA se aplican, con IA o sin ella. Esto pone a proveedores como Eightfold AI en una encrucijada estratégica: diseñar productos para evitar características de una agencia de informes de consumo o actuar como (o a través de) una CRA y ofrecer precisión total, divulgación e infraestructura para disputas.

Un Cambio en el Perfil de Riesgo—sin Casos Públicos que Nombren a Eightfold AI—Todavía

Los dockets públicos y los comunicados de agencias hasta finales de enero de 2026 no muestran demandas, órdenes de consentimiento o investigaciones formales de la FCRA que nombren a Eightfold AI. Tampoco hay asuntos públicos identificados que aleguen que los clientes de Eightfold incurrieron en responsabilidad de la FCRA específicamente debido al uso de sus productos. Sin embargo, el silencio no es inmunidad. Cartas de demanda confidenciales e indagaciones regulatorias no públicas pueden preceder a litigios o acuerdos, y los proveedores en categorías adyacentes han enfrentado un considerable escrutinio de la FCRA. El perfil de riesgo aquí es dinámico: se define menos por la marca en la caja y más por cómo se construye, comercializa, integra, y realmente usa por los empleadores la herramienta.

Las Preguntas Umbral: Informes de Consumo y el Estado de CRA

La FCRA se basa en dos preguntas umbral:

  • ¿Es el resultado un informe de consumo?
  • ¿Está operando el proveedor como una agencia de informes de consumo?

Un informe de consumo es cualquier comunicación que se refiera al carácter, reputación, características personales o similares de una persona, utilizada para decisiones de empleo u otras decisiones reguladas y proporcionada por una CRA. A su vez, una CRA es cualquier entidad que, a cambio de tarifas, regularmente recopila o evalúa información del consumidor con el propósito de proporcionar informes de consumo a terceros.

Las etiquetas no deciden estas preguntas; la funcionalidad sí. Los tribunales examinan el propósito, la comercialización, el conocimiento de los usos finales, la verificación de los clientes y si el proveedor recoge o evalúa información para proporcionar resultados individualizados y relevantes para la toma de decisiones de forma recurrente. Los proveedores que han evitado el estado de CRA típicamente no comercializaron para usos regulados por la FCRA, carecían de conocimiento de tales usos u ofrecían herramientas no diseñadas para proporcionar los tipos de informes alegados. Los examinadores de antecedentes, por el contrario, claramente proporcionan informes de detección individualizados y son consistentemente tratados como CRAs con obligaciones completas.

Donde los Resultados de IA Ingresan en el Territorio de la FCRA

Los resultados de contratación con IA—clasificaciones, puntuaciones de coincidencia, indicadores de idoneidad o riesgo—pueden cruzar al territorio de los informes de consumo cuando se cumplen tres condiciones:

  • Los resultados afectan al carácter, reputación, o características personales relevantes para el empleo.
  • El proveedor recopila o evalúa información (potencialmente de múltiples fuentes) y proporciona resultados individualizados a clientes empleadores.
  • Los resultados se utilizan o se espera que se usen para tomar decisiones de contratación o elegibilidad.

El riesgo aumenta cuando un proveedor comercializa estos resultados para detección o elegibilidad, los proporciona a múltiples empleadores, consume datos intermediados, desarrolla módulos de acción adversa, o verifica a los clientes para un propósito permisible. El riesgo disminuye cuando la funcionalidad se mantiene dentro del entorno de un solo empleador, se basa principalmente en datos proporcionados por el empleador o el candidato y está contractual y técnicamente restringida de usos regulados por la FCRA. Las exenciones por sí solas no rescatarán un producto que funciona y aparenta como un servicio de CRA.

Para Eightfold y sus pares, las decisiones de diseño en torno a esos elementos—no la presencia de IA—controlan si la FCRA se aplica.

Deberes del Empleador que Siguen al Uso de Informes de Consumo

Cuando un empleador obtiene un informe de consumo para propósitos de empleo, la FCRA impone un flujo de trabajo bien definido:

  • Propósito permisible y certificación: El empleador debe tener un propósito permisible y proporcionar certificaciones a la CRA.
  • Divulgación y autorización: Antes de la obtención, el empleador debe ofrecer al individuo una divulgación clara e independiente y obtener autorización por escrito.
  • Acción pre-adversa y adversa: Si el empleador planea tomar una acción adversa basada, incluso en parte, en el informe, debe proporcionar al individuo una copia del informe y un Resumen de Derechos, esperar un tiempo razonable, y luego emitir un aviso de acción adversa con contenido prescrito.

Si cualquier parte de un producto de contratación con IA opera como una CRA (o está integrada en flujos de trabajo de CRA), el proveedor debe apoyar el cumplimiento del cliente con estos pasos e implementar la verificación de usuarios y certificaciones. Los empleadores siguen siendo responsables independientes de hacer lo básico correctamente.

Obligaciones de Precisión en la Era de la Coincidencia Algorítmica

Las CRAs deben seguir procedimientos razonables para asegurar la máxima precisión posible. Los reguladores han rechazado específicamente la coincidencia por nombre solamente como incompatible con ese deber. En el contexto algorítmico, eso significa:

  • Usar resolución de identidad multifactorial en lugar de coincidencias solo por nombre o débiles.
  • Vincular registros de manera conservadora y emplear revisión humana de respaldo cuando las coincidencias sean ambiguas.
  • Diseñar características de modelo y flujos de resolución de entidades con controles de precisión, registros y pruebas posteriores.

Las acciones de ejecución en detección de antecedentes subrayan lo que está en juego: las coincidencias sueltas han atribuido erróneamente antecedentes penales o de desalojo, costando a las personas puestos de trabajo y vivienda. Si los proveedores de IA eligen operar como CRAs o proporcionar resultados similares a los de CRA, estas expectativas de precisión se convierten en un estándar mínimo.

Disputas, Registros Públicos y Responsabilidad del Proveedor

Los consumidores tienen derecho a disputar. Las CRAs deben realizar reinvestigaciones oportunas y corregir o eliminar información inexacta. Se aplican deberes especiales a los registros públicos utilizados para decisiones de empleo—ya sea aviso contemporáneo al consumidor o procedimientos estrictos para asegurar su completitud y vigencia.

Los proveedores también pueden encontrarse en el rol de proveedor. Si una plataforma de IA transmite información mantenida por el empleador a la línea de informes de una CRA y recibe avisos de disputa de la CRA, debe investigar, revisar toda la información relevante y reportar resultados, incluidas correcciones a todas las CRAs nacionales a las que se proporcionó la información. Esa infraestructura de reinvestigación no es opcional una vez activada.

Por separado, es ilegal obtener o usar un informe de consumo sin un propósito permisible o certificaciones adecuadas. Empleadores y proveedores pueden enfrentarse a exposición si omiten estos requisitos.

Intencionalidad, Recursos y Exposición a Demandas Colectivas en Casos de Empleo

Los recursos de la FCRA son contundentes. El incumplimiento intencionado abre la puerta a daños legales y punitivos más honorarios de abogados; las violaciones negligentes permiten la recuperación de daños reales. La Corte Suprema ha sostenido que el “desprecio temerario” de los requisitos legales puede constituir intencionalidad, un estándar que captura conductas más allá de las violaciones intencionadas.

El riesgo de litigio colectivo es complejo después de TransUnion. Los demandantes necesitan un perjuicio concreto para una presencia de pie en el Artículo III. Los tribunales han restringido la presencia para miembros de la clase que enfrentaron un mero riesgo de daño pero reconocieron la presencia donde se divulgó información inexacta a terceros y se usó en decisiones. En casos de empleo, donde los informes influyen directamente en la selección, esa distinción importa. Los productos de IA similares a CRA pueden, por lo tanto, llevar exposición a demandas colectivas si diseminan resultados inexactos y relevantes para la toma de decisiones.

Señales de Agencias y Tribunales: FCRA Neutral en Tecnología, Perímetro más Estricto para Corredores de Datos

Los reguladores han sido explícitos: la FCRA se aplica independientemente de la tecnología en juego. Las guías para empleadores reiteran los pasos de divulgación, autorización y acción adversa para cualquier uso de informes de consumo, y advierten que renombrar un informe como “consejo” o “resultados de búsqueda” no evitará el cumplimiento. Las opiniones consultivas han martillado dos puntos de presión en los sistemas algorítmicos:

  • La coincidencia por nombre solamente es incompatible con la “precisión máxima posible.”
  • Ciertos elementos de datos (como datos de encabezado de crédito) pueden constituir información de informes de consumo si se utilizan para decisiones de empleo, llevando a los vendedores y usuarios dentro del perímetro de la FCRA.

La formulación de reglas se está moviendo hacia tratar a muchos corredores de datos como CRAs cuando venden datos personales utilizados para decisiones de empleo, crédito o seguros. La dirección está clara incluso cuando los contornos finales permanecen pendientes: función sobre forma, y uso sobre etiquetas.

Precedentes que Enmarcan el Riesgo de Contratación con IA: Examinadores de Antecedentes vs. Plataformas de Análisis

La aplicación contra compañías de detección de antecedentes muestra lo que sucede cuando un proveedor opera claramente como una CRA pero falla en cuanto a precisión y disputas. Los acuerdos han destacado la coincidencia suelta, procedimientos inadecuados y fallas en la reinvestigación. Las acciones contra sitios de búsqueda de personas confirman que comercializar como aptos para decisiones de empleo u otras decisiones reguladas, sin controles de CRA, invita a la responsabilidad de la FCRA a pesar de las exenciones.

Por otro lado, los tribunales han declinado tratar ciertas herramientas de análisis y referencia como CRAs en los registros presentados cuando los proveedores no comercializaban para usos de FCRA, carecían de conocimiento de tales usos, o no proporcionaban el tipo de informes alegados. Esas decisiones resaltan un camino de diseño viable para los proveedores de contratación con IA: mantenerse fuera del carril de CRA a menos que estén preparados para hacer todo lo que una CRA debe hacer.

Diseñando sin Características de CRA: Elecciones de Producto, Datos y Marketing

Para Eightfold AI y plataformas similares, la forma más confiable de reducir el riesgo de la FCRA es evitar las características de CRA por diseño:

  • Alcance del producto: Posicionar resultados como soporte para decisiones dentro del entorno de un único empleador en lugar de informes individualizados proporcionados a través de varios empleadores.
  • Fuentes de datos: Preferir datos de primera parte del empleador y proporcionados por candidatos; someter cualquier dato externo a una diligencia minuciosa debido a la ampliación del perímetro de CRAs para corredores de datos.
  • Entradas sensibles: Prohibir o restringir técnicamente la ingestión de antecedentes penales o de crédito a menos que se opere dentro de un módulo compatible con CRA.
  • Resolución de identidad: Diseñar más allá de la coincidencia por nombre solamente con resolución de identificadores múltiples, umbrales conservadores y revisión humana para casos límite.
  • Marketing: Evitar términos como “detección,” “elegibilidad” o “antecedentes” que señalen intención de CRA; las exenciones ayudan solo cuando se alinean con la funcionalidad y uso real.

Estas elecciones no solo limitan la exposición legal; también reducen el peso operacional de las obligaciones de CRA que pueden ralentizar la velocidad del producto y complicar la aceptación de clientes.

Controles Operacionales: Transparencia, Acción Adversa y Humano en el Bucle

Incluso cuando permanecen fuera del perímetro de CRA, ciertos controles operacionales refuerzan el fundamento legal y ético:

  • Transparencia: Ofrecer explicaciones para reclutadores sobre los factores que influyen en las clasificaciones o coincidencias, y mantener documentación interna (por ejemplo, tarjetas de modelos) para auditorías.
  • Interacción con candidatos: Proporcionar mecanismos para que los candidatos corrijan entradas bajo el control del empleador (como errores de análisis de currículums).
  • Acción adversa: Si los productos se integran o interoperan con detectores de antecedentes, instar a los clientes a seguir los pasos requeridos de acción preadversa/adversa; evitar incrustar flujos de trabajo de acción adversa a menos que sean totalmente compatibles con CRA.
  • Supervisión humana: Mantener humanos en el bucle para decisiones adversas o de casos límites; evitar rechazos automáticos basados únicamente en resultados de IA y permitir que los candidatos proporcionen contexto.

Estos controles se alinean con los principios de precisión de la FCRA y expectativas más amplias de derechos civiles y ayudan a prevenir el mal uso de los resultados de IA como verificaciones de antecedentes de facto.

Contratos, Gobernanza de Clientes e Integraciones con CRAs

El sistema contractual es donde la teoría se encuentra con la práctica:

  • Términos de uso: Prohibir usos regulados por la FCRA a menos que el cliente implemente el cumplimiento total y el proveedor soporte controles a nivel de CRA; prohibir la redistribución y tratar los resultados como informes de consumo.
  • Verificación y capacitación de clientes: Monitorizar el uso para detectar patrones prohibidos y hacer cumplir los términos, escalando desde advertencias hasta la terminación.
  • Integraciones: Al enviar datos a una línea de CRA, definir roles—usuario vs. CRA vs. proveedor—obtener certificaciones, y establecer compromisos de nivel de servicio para el manejo de disputas, incluidas obligaciones de investigación y corrección tras recibir un aviso de una CRA.
  • Indemnizaciones: Donde no sea una CRA, asegurar la indemnización del cliente por mal uso regulado por la FCRA; donde opere dentro del alcance de la FCRA, incluir indemnizaciones recíprocas y derechos de auditoría.

Estas capas de gobernanza importan más durante la expansión de clientes y cuando se conectan a flujos de trabajo de detección de antecedentes.

Justicia y Alineación Regulatoria Cruzada Más Allá de la FCRA

La FCRA no es el único lente legal sobre la contratación con IA. Las agencias han enfatizado que las leyes de derechos civiles y protección al consumidor se aplican plenamente a los sistemas automatizados. Los empleadores y proveedores deben validar que los criterios de selección sean relacionados con el trabajo y consistentes con la necesidad empresarial, proporcionar adaptaciones para personas con discapacidades, y cumplir con regímenes locales de transparencia y auditoría, como la ley AEDT de la Ciudad de Nueva York. Aunque estas obligaciones son distintas de la FCRA, alinearlas reduce fricción y riesgo a lo largo de la pila de contratación. Litigios en áreas adyacentes, incluidos desafíos a sistemas automatizados de reclutamiento, subrayan la importancia de este marco de cumplimiento más amplio.

Escenarios de Riesgo Práctico y Mitigaciones

Los escollos más comunes—y cómo evitarlos—se entienden bien:

EscenarioPotencial Desencadenante de la FCRAObligaciones/Exposición ClaveMitigaciones Recomendadas
La plataforma proporciona puntuaciones de idoneidad de candidatos individualizadas a múltiples empleadores utilizando datos intermediadosResultados y modelo de negocio semejan a una CRA proporcionando informes de consumo para empleoDeberes de CRA: verificación de propósito permisible, certificaciones de usuario, procedimientos de precisión, reinvestigaciones, reglas de registros públicos, soporte para acciones adversas; responsabilidad por voluntad/negligencia; riesgo de claseRediseñar para evitar características de CRA o operar como/a través de una CRA con controles completos; restringir fuentes de datos; limitar resultados a soporte de decisiones dentro del empleador; prohibir la redistribución
Coincidencia solo por nombre o débil atribuye erróneamente registros utilizados en contrataciónDeberes de precisión si están dentro de la FCRA; escrutinio UDAP incluso fuera de la FCRAExposición por informes inexactos causando resultados adversos de empleo; cargas de reinvestigaciónImplementar resolución de identidad multifactorial, umbrales de vinculación conservadores, revisión humana; registrar precisión; realizar pruebas posteriores a resultados adversos
El empleador reutiliza puntuaciones de IA como verificaciones de antecedentes proxy para excluir solicitantesObtención/uso ilícito de informes de consumo; falla en proporcionar divulgaciones/autorizaciones/acción adversaResponsabilidad del empleador; potencial exposición del proveedor por facilitación o tergiversaciónAdvertencias en-producto, monitoreo de uso, capacitación y cumplimiento; requerir a clientes que usen CRAs para verificaciones de antecedentes y sigan los pasos de la FCRA; deshabilitar características riesgosas
Integración empuja datos del empleador a una CRA; disputas se dirigen al proveedor como responsableDeberes del proveedor tras recibir aviso de disputaDeber de investigar y corregir; responsabilidad por falla en hacerloDefinir roles en contratos; construir flujos de trabajo y SLA de resolución de disputas; mantener trazabilidad de datos y registros de auditoría
Marketing sugiere “detección” o “elegibilidad” sin cumplimiento de CRAInferencia de estado de CRA basada en propósito y marketingAplicación por operar como CRA sin controles; reclamos por tergiversaciónEliminar marketing de detección/elegibilidad; adoptar lenguaje diseñado específicamente; verificar clientes para prevenir usos regulados

Perspectivas para 2026: Normas, Litigios y Configuración de Productos

Mirando hacia adelante, tres fuerzas darán forma a los riesgos de la FCRA para la contratación con IA:

  • Un perímetro más amplio de CRAs para corredores de datos: Las reglas propuestas están a punto de clasificar a muchos corredores como CRAs cuando sus datos se utilizan para decisiones de empleo. Se espera un mayor escrutinio de las líneas de datos de terceros y expectativas más fuertes de que los vendedores verifiquen compradores y usos previstos.
  • Aplicación a través de la lente de precisión: Las opiniones consultivas sobre coincidencia solo con nombre y el tratamiento de ciertos elementos de datos indican que los reguladores probarán la resolución de identidad algorítmica y la calidad del enlace contra estándares de “precisión máxima posible”. Es probable que la coincidencia débil atraiga atención, particularmente cuando produce daño laboral.
  • Presión de litigio en el punto de decisión: Los tribunales continuarán centrándose en si los resultados fueron diseminados a los empleadores y utilizados en la selección. Los vendedores cuyos productos funcionan como informes de detección enfrentarán la misma exposición de clase que las CRAs tradicionales; aquellos que permanezcan dentro de las cuatro paredes de un solo empleador con una gobernanza sólida estarán mejor posicionados para resistir la caracterización de CRA.

Para Eightfold AI, la configuración más segura sigue siendo clara: mantener los resultados dentro del ecosistema de cada empleador, evitar datos intermediados siempre que sea posible, diseñar la resolución de identidad más allá de la coincidencia solo por nombre, y alejar el marketing de las afirmaciones de detección o elegibilidad. Si el negocio elige apoyar casos de uso que parecen informes de consumo, entonces el único camino sostenible es operar como— o a través de— una CRA con precisión total, divulgación, acción adversa y flujos de trabajo para disputas.

La promesa esencial de la FCRA—uso justo, preciso y transparente de la información en decisiones que cambian la vida—no se evapora ante el aprendizaje automático. Se vuelve más urgente. Las compañías que prosperen en 2026 serán aquellas que abracen esa realidad, diseñen para ella y lo demuestren en su diseño de producto y operaciones. ⚖️

Puntos Clave

  • El estado de CRA se determina por la función, no las etiquetas; los resultados de IA pueden ser informes de consumo cuando se proporcionan y utilizan para decisiones de empleo.
  • No hay casos públicos de la FCRA que nombren a Eightfold AI hasta la fecha, pero la aplicación y los litigios adyacentes trazan los riesgos para las herramientas de contratación con IA.
  • Evitar características de CRA a menos que se esté preparado para implementar precisión total, divulgación, acción adversa e infraestructura para disputas.
  • Invertir en resolución de identidad más allá de la coincidencia solo por nombre y en gobernanza robusta, transparencia y supervisión humana.
  • Estar atentos a la ampliación de la cobertura de corredores de datos y una postura de aplicación centrada en la precisión; configurar productos en consecuencia.

Fuentes y Referencias

www.law.cornell.edu
15 U.S.C. § 1681a (FCRA definitions) Defines consumer report and consumer reporting agency, central to determining whether AI hiring outputs and providers fall within the FCRA.
www.law.cornell.edu
15 U.S.C. § 1681b (Permissible purposes; employment duties) Outlines permissible purposes and employer obligations, including certifications and disclosures, when using consumer reports for employment.
www.law.cornell.edu
15 U.S.C. § 1681e (Accuracy obligations) Establishes the CRA duty to follow reasonable procedures to assure maximum possible accuracy, which regulators apply to algorithmic matching.
www.law.cornell.edu
15 U.S.C. § 1681i (Reinvestigations of disputes) Defines CRA dispute reinvestigation requirements, relevant to AI vendors acting as CRAs or integrated with CRA pipelines.
www.law.cornell.edu
15 U.S.C. § 1681k (Public records used for employment) Sets special duties for employment-related public record reporting, a risk area for algorithmic systems handling such data.
www.law.cornell.edu
15 U.S.C. § 1681m (Adverse action notices) Specifies pre-adverse and adverse action notice requirements when employment decisions are based on consumer reports.
www.law.cornell.edu
15 U.S.C. § 1681n (Willful noncompliance) Details statutory and punitive damages for willful FCRA violations, framing litigation risk for AI hiring vendors and users.
www.law.cornell.edu
15 U.S.C. § 1681o (Negligent noncompliance) Provides remedies for negligent FCRA violations, relevant to errors in AI-driven reporting or processes.
www.ftc.gov
FTC Business Guidance—Background checks: What employers need to know Reinforces technology-neutral employer duties for disclosure, authorization, and adverse action when using consumer reports.
www.consumerfinance.gov
CFPB Advisory Opinion—Fair Credit Reporting; Name‑Only Matching Rejects name-only matching as incompatible with maximum possible accuracy, central to algorithmic identity resolution risks.
www.consumerfinance.gov
CFPB Advisory Opinion—Credit Header Data Signals that certain data elements can be consumer report information in employment contexts, tightening the FCRA perimeter.
www.consumerfinance.gov
CFPB Press Release—Proposed rule to rein in data brokers (FCRA) Indicates rulemaking direction to treat many data brokers as CRAs when data is used for employment decisions.
www.ftc.gov
FTC Press Release—TruthFinder/Instant Checkmate FCRA action Shows that marketing for employment or other regulated uses without CRA controls can trigger FCRA enforcement despite disclaimers.
www.ftc.gov
FTC Press Release—HireRight $2.6M FCRA settlement Illustrates enforcement on accuracy and reinvestigation failures by employment screening CRAs, relevant to AI accuracy obligations.
www.ftc.gov
FTC Press Release—RealPage $3M FCRA settlement (tenant screening) Highlights consequences for inaccurate matching and insufficient procedures, analogous to AI-driven identity and record linkage risks.
law.justia.com
Kidd v. Thomson Reuters, 925 F.3d 99 (2d Cir. 2019) Demonstrates courts’ function-over-labels approach and circumstances where a data platform was not treated as a CRA on the record.
law.justia.com
Zabriskie v. Fannie Mae, 912 F.3d 1192 (9th Cir. 2019) Shows a tool not treated as a CRA based on its purpose and design, informing AI vendor risk-reduction strategies.
casetext.com
Sweet v. LinkedIn Corp., No. 5:14‑cv‑04531 (N.D. Cal. Apr. 14, 2015) Underscores how marketing and functionality can keep a platform outside FCRA on the pleadings when not furnishing consumer reports.
supreme.justia.com
Safeco Ins. Co. of America v. Burr, 551 U.S. 47 (2007) Defines willfulness standard as including reckless disregard, key to damages exposure assessments.
supreme.justia.com
TransUnion LLC v. Ramirez, 141 S. Ct. 2190 (2021) Clarifies Article III standing for FCRA class members, shaping litigation risk where AI outputs are disseminated and used.
www.ftc.gov
Joint Statement (FTC/DOJ/CFPB/EEOC) on AI and civil rights enforcement Affirms that existing anti-discrimination and consumer protection laws apply to automated systems in hiring.
www.eeoc.gov
EEOC—AI and Title VII Technical Assistance Guides employers on applying civil rights law to software and algorithms, complementing FCRA compliance in hiring.
www.nyc.gov
NYC Local Law 144 (AEDT) resource page Shows local transparency and audit requirements that intersect with AI hiring practices beyond the FCRA.
www.courtlistener.com
Hebert v. Workday, Inc., N.D. Cal. Docket Reflects litigation testing the application of civil rights law to automated hiring systems, contextual to the AI governance landscape.

Ad space (disabled)