OMB M‑24‑10 établit un nouveau régime de responsabilité pour l’analyse par les forces de l’ordre
Appliquer les inventaires, les évaluations d’impact, TEV/M, les mesures de biais et la transparence à la surveillance assistée par Palantir dans les missions d’enquête
Le gouvernement fédéral a franchi un Rubicon en matière de gouvernance: sous le mémorandum M‑24‑10 de l’Office of Management and Budget, la supervision de l’IA passe de l’orientation à des exigences contraignantes. Ce changement affecte directement les analyses d’enquêtes utilisées par les agences de forces de l’ordre, où des outils configurables comme l’analyse de liens, la résolution d’entités et la priorisation sont désormais soumis à un régime formel d’inventaires, d’évaluations d’impact, de tests et de transparence. Les enjeux sont élevés: ces analyses synthétisent des ensembles de données sensibles pour générer des pistes, façonner des hypothèses d’enquête et guider l’allocation des ressources dans des missions allant du crime transnational à l’exploitation des enfants.
Cet article cartographie comment OMB M‑24‑10, fondé sur la trajectoire définie par le décret exécutif 14110, va redéfinir les tests, l’équité et la transparence pour les analyses assistées par Palantir utilisées dans les fonctions d’enquête. Il montre où la gouvernance actuelle fournit déjà une structure—à travers les artefacts de confidentialité du DHS, la provenance des systèmes et l’audit—et où de nouvelles obligations exigeront des preuves mesurables de performance, une évaluation du biais et une validation indépendante. Les lecteurs apprendront comment catégoriser les fonctions d’enquête sous la définition de l’IA, quoi inclure dans les inventaires d’utilisation et les évaluations d’impact, comment construire des programmes TEV/M adaptés à la surveillance et comment concilier transparence et contestabilité avec les contraintes légales. Un plan pratique se termine par des étapes à court terme que les agences peuvent mettre en œuvre pour répondre à ce besoin.
Le changement réglementaire: du décret 14110 à OMB M‑24‑10—et définir l’IA dans les enquêtes
Le décret exécutif 14110 demande aux agences d’assurer une IA sûre, sécurisée et digne de confiance grâce à des mécanismes de gouvernance concrets: rôles de leadership, inventaires d’utilisation et protections adaptées aux risques. OMB M‑24‑10 rend ces mécanismes obligatoires, exigeant que les agences identifient et évaluent les usages de l’IA—particulièrement ceux qui peuvent toucher aux droits et à la sécurité—et qu’elles mettent en œuvre des mesures de test, d’évaluation et de surveillance (TEV/M) accompagnées de mesures de transparence adaptées au profil des risques.
Décider ce qui compte comme IA: la priorisation, l’analyse de liens et la résolution d’entités
La question seuil pour les analyses d’enquête est la catégorisation. Les environnements assistés par Palantir utilisés dans les enquêtes fédérales—tels que les plateformes analytiques et de recherche consolidées construites sur Gotham—fournissent résolution d’entités, déconfliction entre ensembles de données, analyse de liens basée sur des graphes et analyses géospatiales. Ils soutiennent également des tableaux de bord et des flux de travail configurables qui mettent en évidence des pistes et priorisent l’attention à l’aide de critères définis par l’enquêteur et de règles métier. Les agences doivent déterminer si ces configurations répondent à la définition politique de l’IA dans la pratique. Lorsque ces analyses influencent matériellement le ciblage des enquêtes ou l’allocation des ressources, et portent des implications plausibles pour les droits civils, l’approche prudente est de les traiter comme de l’IA soumise aux exigences de M‑24‑10.
Cette catégorisation ne convertit pas ces systèmes en adjudicateurs automatisés. Les artefacts du DHS et les conceptions systèmes soulignent la prise de décision humaine dans la boucle; les analystes et les superviseurs restent responsables de vérifier la suffisance des preuves avant toute action. Mais “l’homme dans la boucle” n’obvie pas à la gouvernance: si les sorties analytiques façonnent la visibilité dans le système et quelles hypothèses s’élèvent, le cadre de sécurité-impact de l’IA de M‑24‑10 est le bon prisme.
Inventaires d’utilisation et évaluations d’impact adaptés aux fonctions d’enquête
Les entrées d’inventaire devraient décrire les fonctions, pas seulement les systèmes. Pour les enquêtes assistées par Palantir, des entrées distinctes sont justifiées pour:
- Résolution d’entités et déconfliction à travers les ensembles de données du DHS et externes
- Analyse de graphes/liens qui met en évidence les associations entre personnes, entités, événements, communications et flux financiers
- Cartographie géospatiale et analyses de proximité
- Génération de pistes et flux de priorisation utilisés pour trier l’attention enquêteuse
Chaque entrée devrait capturer les sources de données (y compris les systèmes du DHS, les flux inter-agences, et les ensembles de données commerciaux/open source approuvés), les contraintes de gouvernance (accès basé sur les rôles, étiquetage de provenance, journalisation des audits) et les caractéristiques de risque (potentiel d’impact disparate, effets de rétroaction, et sensibilités à la confidentialité). Les évaluations d’impact doivent aller plus loin, décrivant les préjudices prévisibles, les atténuations, et les voies de supervision, et clarifiant les points de décision humains où une vérification et un examen supervisé ont lieu.
Construire TEV/M pour les enquêtes assistées par Palantir
OMB M‑24‑10 exige des tests, évaluations et surveillances proportionnées au risque. Pour les analyses d’enquête, TEV/M doit aller au-delà de la sécurité de la plateforme et des contrôles de processus pour quantifier la performance réelle de la génération de pistes et de la priorisation—et pour qui.
Établir la précision/rappel, la robustesse, et la surveillance des dérives
Malgré des contrôles robustes autour de la provenance, de l’audit, et de la révision humaine, des preuves quantitatives publiquement disponibles sur la précision des analyses d’enquête restent rares. Les agences devraient instituer des programmes TEV/M qui:
- Définissent des libellés de résultats opérationnellement significatifs pour l’évaluation rétrospective (par exemple, si une piste priorisée a été corroborée par une preuve indépendante avant toute action opérationnelle). Lorsque des métriques spécifiques ne sont pas disponibles publiquement, les agences devraient faire rapport aux organismes de surveillance et publier des résumés de haut niveau qui protègent les méthodes sensibles.
- Mesurent la précision et le rappel pour les configurations de génération de pistes et de priorisation dans des domaines d’enquête représentatifs. Parce que la même plateforme peut héberger plusieurs flux de travail analytiques, les évaluations devraient être spécifiques à l’utilisation-casque.
- Testent la robustesse aux enregistrements bruyants, obsolètes, ou conflictuels qui sont inhérents à l’agrégation multi-source; documentent les modes d’échec connus liés à la qualité des données et à la correspondance d’identités.
- Surveillent les changements de distribution et les dérives dans les sources de données—en particulier les ensembles de données commerciaux et les flux open source—signalant lorsque la couverture ou la qualité des données change pourraient influencer les sorties.
Un processus de gestion du changement devrait lier ces métriques aux contrôles de déploiement: des changements de configuration significatifs ou des ajouts de jeux de données devraient déclencher une re-vérification et des mises à jour des journaux des changements, avec des résumés disponibles pour les équipes de supervision.
Métriques de biais et impacts disparates: cadres d’échantillonnage, proxies protégés et plans d’atténuation
Les risques d’équité s’accumulent là où la couverture est inégale (par exemple, ensembles de données géospatiaux comme les enregistrements de lecteurs de plaques d’immatriculation), où les données commerciales reflètent des biais structurels, et où des caractéristiques analytiques agissent comme des proxies pour des caractéristiques protégées. Les agences devraient:
- Établir des cadres d’échantillonnage qui reflètent les populations réellement affectées par la priorisation d’enquête, pas seulement les cas actifs ou les hotspots historiques.
- Identifier et documenter des proxies potentiels (nationalité, langue, historique des adresses, structure du réseau) et tester les disparités de résultats à travers les groupes pertinents. Là où les contraintes légales limitent la divulgation publique, rapporter des résultats détaillés aux organes de surveillance internes (bureaux de la confidentialité, unités des droits civils, inspecteurs généraux) et publier des résumés agrégés.
- Associer les résultats de disparités à des plans d’atténuation documentés: ajuster les pondérations des caractéristiques ou les seuils; exiger des étapes de vérification humaine pour les combinaisons de caractéristiques à haut risque; restreindre l’utilisation de certains ensembles de données à des objectifs justifiés par la nécessité; et étendre la formation des analystes sur les risques de biais.
L’expérience avec d’autres outils de risque des forces de l’ordre montre comment une logique opaque et une supervision inadéquate peuvent dégrader l’équité, même lorsque les outils sont présentés comme neutres. Les analyses d’enquête qui influencent qui est examiné doivent respecter des normes plus élevées: les disparités doivent être mesurées, expliquées et atténuées, non présumées disparues par la seule révision humaine.
Risques de boucle de rétroaction et évaluation longitudinale des effets d’allocation des ressources
Lorsque les décisions de priorisation et d’allocation sont informées par les résultats passés de l’application, les analyses peuvent renforcer des schémas historiques indépendamment du risque sous-jacent. Les agences devraient traiter cela comme une hypothèse testable. Les évaluations longitudinales peuvent comparer des trajectoires dans des régions ou catégories de cas similaires pour détecter si les changements de ressources motivés par les analyses amplifient les disparités dans qui devient visible pour les enquêteurs. Les atténuations peuvent inclure un ré-équilibrage périodique, des plafonds sur certains types de requêtes, ou des investissements ciblés pour la qualité des données dans les zones sous-représentées. Les organes de surveillance devraient recevoir des analyses récurrentes des effets de rétroaction accompagnées de tableaux de bord de performance standard.
Transparence, documentation et contestabilité—dans les limites légales
Les analyses des forces de l’ordre opèrent dans un cadre de confidentialité et de divulgation qui permet à la fois la supervision et limite la visibilité publique. Naviguer cette tension est central aux attentes de transparence de M‑24‑10.
Documentation des modèles: résumés publics versus détails internes sensibles
La transparence publique d’aujourd’hui repose largement sur les évaluations d’impact sur la confidentialité et les avis de systèmes d’enregistrement, qui décrivent les objectifs, les catégories de données, le partage, les risques et les atténuations. En interne, les plateformes fournissent des capacités de lignage et d’audit qui permettent aux analystes d’inspecter les sources, les requêtes et les liens derrière une sortie analytique. Ce qui manque publiquement, c’est une documentation spécifique au système et à l’utilisation-casque- analogue aux cartes de modèles-qui articule les ensembles de données utilisés, les limitations connues, les procédures d’évaluation et les historiques de changements pour les configurations de ciblage et de priorisation.
Les agences devraient produire deux niveaux de documentation:
- Documentation interne sensible avec des constatations TEV/M détaillées, des métriques de disparité et des spécificités de configuration pour l’utilisation par les bureaux de la confidentialité, les unités des droits civils, les inspecteurs généraux et les conseillers juridiques.
- Résumés publics qui expliquent les fonctions, les limitations connues, et les mécanismes de gouvernance en langage clair, omettant les seuils ou poids sensibles opérationnellement mais véhiculant la posture de responsabilité et les résultats à un niveau élevé.
Transparence et contestabilité sous contraintes légales et exemptions
La contestabilité est compliquée par les exemptions de l’application de la loi, la classification, et les protections des sources sensibles. Les individus peuvent solliciter des enregistrements via des processus établis, mais l’accès est souvent limité lorsque la divulgation révélerait des techniques ou entraverait des enquêtes. En pratique, les contestations des sorties analytiques apparaissent dans les procédures pénales ou d’immigration, où la découverte et les ordres de protection gouvernent l’accès aux méthodes. Les agences peuvent encore améliorer la contestabilité en fournissant un avis lors des procédures lorsque les analyses informent matériellement les actions et en facilitant l’accès défensif contrôlé aux enregistrements et aux méthodologies sous supervision judiciaire.
Validation indépendante: rôles pour les bureaux de la confidentialité, les unités des droits civils, les inspecteurs généraux, et les examinateurs externes
Plusieurs couches de supervision existent déjà: les bureaux de la confidentialité ministériels examinent les PIA et la conformité; les unités des droits civils évaluent les impacts sur les droits; les inspecteurs généraux enquêtent sur les manquements et les échecs systémiques; et le Congrès peut exiger des informations. En vertu de M‑24‑10, ces acteurs devraient recevoir des dossiers de validation formelle pour les usages d’IA impactant la sécurité, y compris le ciblage d’enquête. Des audits indépendants périodiques—réalisés en interne ou par des évaluateurs externes qualifiés—devraient évaluer la précision, la robustesse, l’impact disparate et les effets de rétroaction, avec des constatations partagées avec les organes de surveillance et résumées publiquement.
Données, confidentialité et achats: ensembles de données sensibles sous doctrine légale évolutive
L’ambition analytique est limitée par l’enveloppe juridique et politique autour des données sensibles. Cette enveloppe s’est resserrée—et a évolué—de manière à affecter directement les analyses d’enquête.
Doctrine évolutive sur la confidentialité numérique et les données liées à la localisation
La doctrine constitutionnelle a souligné les intérêts accrus en matière de confidentialité dans certaines catégories d’informations numériques, notamment les enregistrements de localisation sensibles. Les agences accédant à des ensembles de données géospatiales—y compris les enregistrements de lecteurs de plaques d’immatriculation ou d’informations de localisation dérivées de la téléphonie—doivent aligner leurs pratiques sur des attentes évolutives de processus légal, de minimisation, et de nécessité. La documentation devrait refléter la base légale, les sauvegardes appliquées, et les contextes dans lesquels de telles données sont utilisées pour éclairer les analyses.
Lois des États sur les courtiers en données: implications pour l’achat et chorégraphie de la conformité
L’écosystème des données commerciales est devenu une entrée majeure pour les analyses d’enquête—actes publics, données des services publics, métadonnées téléphoniques, enregistrements de véhicules et de LPR, et signaux dérivés des médias sociaux en font partie. Les lois émergentes des États sur les courtiers en données reconfigurent ce qui est disponible, à quelles conditions, et avec quelles attentes de notification et de consentement. Les agences devraient:
- Cartographier chaque ensemble de données courtier à un usage spécifique, justifié par la nécessité, une période de rétention, et une base légale dans les artefacts de confidentialité mis à jour.
- Vérifier les fournisseurs pour la provenance, la conformité aux lois applicables, et les pratiques de qualité des données; exiger l’étiquetage de provenance lors de l’ingestion.
- S’assurer que la transparence des achats lie les articles de ligne contractuels à des livrables correspondants de gouvernance et d’atténuation des risques.
Posture de sécurité et responsabilité publique pour la gestion des données
Les autorisations de sécurité au niveau de la plateforme et les contrôles au niveau des objets proposent une base technique solide. Pourtant, les échecs de gestion des données ailleurs dans l’écosystème démontrent comment les environnements sensibles restent vulnérables à la divulgation involontaire. Les agences devraient renforcer les contrôles de diffusion, étendre les exercices d’équipe rouge sur les flux de travail de gestion des données, et publier les leçons apprises à travers les canaux de rapport de confidentialité existants.
Une feuille de route à court terme: Piloter, Phase, Standardiser
Atteindre le niveau de M‑24‑10 pour les analyses d’enquête est réalisable avec une séquence disciplinée et une propriété claire.
- Lancer des projets pilotes: Sélectionner 2–3 cas d’utilisation d’enquête à fort impact (par exemple, la priorisation de pistes dans des cas complexes) pour un déploiement TEV/M de bout en bout—définissant des libellés de résultats, mesurant la précision/rappel, testant la robustesse, et surveillant les dérives. Capturer les métriques de disparité et analyser les boucles de rétroaction avec des plans d’atténuation.
- Construire des inventaires et des évaluations d’impact par fonction: Documenter la résolution d’entités, l’analyse de liens, les analyses géospatiales, et la priorisation en tant qu’entrées distinctes avec des mappages de sources de données, des contraintes, et des caractéristiques de risque.
- Produire une documentation à plusieurs niveaux: Créer des dossiers de validation internes et des résumés publics; maintenir des journaux de changement et un rythme de mise à jour lié aux changements de configuration et aux nouvelles sources de données.
- Institutionnaliser les transferts de supervision: Établir des briefings récurrents et des salles de données sécurisées pour les bureaux de la confidentialité, les unités des droits civils, et les inspecteurs généraux; définir des déclencheurs pour les examens externes.
- Aligner les achats avec la responsabilité: Intégrer les audits de qualité des données, l’étiquetage de provenance, et les livrables de résumé public dans les contrats de fournisseurs; cartographier chaque ensemble de données courtier à des objectifs justifiés par la nécessité et la rétention.
- Standardiser à travers les composants: Partager des modèles pour les inventaires, les évaluations d’impact, les métriques TEV/M, et les analyses de disparité pour réduire les duplications et accélérer la conformité. 🚦
Conclusion
OMB M‑24‑10 établit un nouveau standard de responsabilité pour les analyses des forces de l’ordre: si les configurations d’enquête influencent qui est vu, signalé, ou priorisé, elles appartiennent aux inventaires IA des agences et doivent être testées, surveillées, et expliquées. La gouvernance existante du DHS—évaluations d’impact sur la confidentialité, avis de systèmes d’enregistrement, accès basé sur les rôles, provenance, et audit—fournit un bon point de départ. Mais les pièces manquantes sont des preuves mesurables de performance, une évaluation consciente des disparités, et une validation indépendante—associées à des résumés orientés vers le public qui communiquent les limites et les garde-fous sans compromettre les opérations.
Principaux enseignements:
- Traiter les analyses de ciblage et de priorisation comme de l’IA lorsqu’elles influencent matériellement les actions d’enquête et portent des risques pour les droits.
- Construire un TEV/M qui mesure la précision/rappel, la robustesse, les dérives, et les effets de rétroaction au niveau de l’utilisation-casque, et non seulement au niveau du système.
- Évaluer et atténuer les impacts disparates avec des cadres d’échantillonnage clairs, la détection de proxies, et des changements documentés pour les caractéristiques et les seuils.
- Produire une documentation à plusieurs niveaux et renforcer la contestabilité via des notifications dans les procédures et l’accès contrôlé aux méthodes.
- Lier l’achat et l’utilisation des courtiers de données à la nécessité, la provenance, et les livrables de gouvernance transparents.
Prochaines étapes pour les agences: mettre en place des programmes pilotes TEV/M pour quelques cas d’utilisation à fort impact, publier des entrées d’inventaire fonctionnelles et des évaluations d’impact, livrer des dossiers de validation internes aux organismes de surveillance, et publier des résumés publics qui fixent des attentes et permettent une responsabilité mesurée. Le résultat sera des analyses plus solides et une légitimité renforcée—une double impérative pour les missions d’enquête opérant sous une surveillance publique et politique croissante.