La police métropolitaine utilise des outils d'intelligence artificielle de Palantir pour identifier les éventuels manquements des agents.

La police métropolitaine utilise des outils d'intelligence artificielle de Palantir pour identifier les éventuels manquements des agents.

Le Guardian a appris que Scotland Yard utilise des outils d'intelligence artificielle de l'entreprise américaine Palantir pour surveiller le comportement des policiers, dans le but d'identifier les agents problématiques. La police métropolitaine de Londres avait précédemment refusé de confirmer ou de nier son utilisation de la technologie de Palantir, qui travaille également avec l'armée israélienne et l'opération ICE de Donald Trump. Elle reconnaît désormais utiliser l'IA de Palantir pour analyser des données internes sur les absences pour maladie, les congés et les heures supplémentaires afin de repérer d'éventuels manquements aux normes professionnelles.

La Fédération de la police, qui représente les agents de base, a critiqué cette approche comme une « suspicion automatisée ». Elle a averti que les policiers ne devraient pas être soumis à des outils opaques ou non testés qui pourraient interpréter à tort une charge de travail élevée, une maladie ou des heures supplémentaires comme des signes de faute professionnelle.

Avec 46 000 agents et personnels, la police métropolitaine est la plus grande force de police du Royaume-Uni et a été confrontée à de nombreuses controverses, notamment des lacunes dans le filtrage des recrutements — mises en lumière par le meurtre de Sarah Everard par Wayne Couzens — et une tolérance envers les comportements discriminatoires et misogynes.

La police a déclaré que des éléments suggèrent un lien entre des niveaux élevés d'absence pour maladie, des congés accrus ou des heures supplémentaires anormalement élevées et des manquements aux normes, à la culture et au comportement. Le pilote à durée limitée de la technologie de Palantir vise à combiner les données des bases de données internes existantes pour aider à identifier de tels schémas, dans le cadre d'efforts plus larges pour améliorer les normes et la culture. Elle a souligné que si les systèmes de Palantir aident à repérer des schémas, ce sont les agents qui enquêtent plus avant et prennent toute décision concernant les normes ou les performances.

Un porte-parole de la Fédération de la police a déclaré que tout système profilant les agents avec des algorithmes doit être traité avec une extrême prudence, notant que la police opère déjà sous un contrôle intense. L'accent, ont-ils soutenu, devrait rester sur une supervision appropriée, des procédures équitables et le jugement humain, plutôt que sur l'automatisation de la suspicion.

Palantir a également été impliquée dans la controverse concernant l'ancien rôle de Peter Mandelson en tant qu'ambassadeur de Keir Starmer aux États-Unis, avant qu'il ne soit limogé en raison de ses liens avec Jeffrey Epstein. Un cabinet de lobbying co-détenu par Mandelson, Global Counsel, travaille pour Palantir, cofondée par le milliardaire pro-Trump Peter Thiel. Mandelson et Starmer ont visité le showroom de Palantir à Washington l'année dernière et rencontré son PDG, Alex Karp, peu après la nomination de Mandelson.

Les députés ont appelé à une plus grande transparence concernant les contrats de Palantir dans le secteur public britannique, notamment un accord de 330 millions de livres sterling avec le NHS en novembre 2023 pour une plateforme de données et un contrat de 240 millions de livres sterling avec le ministère de la Défense conclu en décembre 2025.

Réagissant au projet pilote de la police métropolitaine, le député libéral-démocrate Martin Wrigley, membre de la commission des sciences de la Chambre des communes, a exprimé son inquiétude quant aux droits des agents en tant qu'employés, notant que la surveillance sur le lieu de travail est depuis longtemps controversée. Il s'est interrogé sur qui supervise Palantir, compte tenu de son rôle croissant au sein du gouvernement.

L'IA de Palantir est déjà utilisée par plusieurs autres forces de police pour aider aux enquêtes via des unités régionales. Le mois dernier, le livre blanc du Parti travailliste sur la police s'est engagé à soutenir l'adoption responsable de l'IA à un rythme et à une échelle accrus, prévoyant d'investir plus de 115 millions de livres sterling sur trois ans pour développer et déployer des outils d'IA dans les 43 forces de police d'Angleterre et du Pays de Galles.

Un porte-parole de Palantir a refusé de commenter. « Nous sommes fiers que notre logiciel contribue à améliorer les services publics à travers le Royaume-Uni. Cela inclut l'amélioration des opérations policières, le soutien au NHS pour réaliser davantage d'opérations chirurgicales et la possibilité pour les navires de la Royal Navy de passer plus de temps en mer. »

Foire aux questions
FAQs La police métropolitaine et l'IA de Palantir pour identifier les fautes professionnelles des agents

Questions de niveau débutant

1. De quoi parle cette histoire ?
La police métropolitaine utilise un logiciel d'intelligence artificielle développé par la société d'analyse de données Palantir pour analyser des données internes et signaler des schémas pouvant indiquer d'éventuelles fautes professionnelles de la part des agents.

2. Qu'est-ce que Palantir ?
Palantir est une entreprise technologique basée aux États-Unis spécialisée dans l'analyse de mégadonnées. Son logiciel est conçu pour trouver des schémas, des liens et des insights au sein d'ensembles de données massifs et complexes.

3. Pourquoi la police métropolitaine utilise-t-elle l'IA pour cela ?
L'objectif est d'identifier de manière proactive les comportements préoccupants — comme des plaintes répétées, des associations avec des individus à haut risque ou des violations de la politique — qui pourraient autrement passer inaperçus dans des dossiers séparés. Cela fait partie d'un effort pour restaurer la confiance du public en tenant les agents responsables.

4. Quel type de données l'IA examine-t-elle ?
Le système analyse diverses sources de données internes, qui peuvent inclure des dossiers de plaintes, d'incidents d'usage de la force, de présence, de déclarations financières et d'autres rapports internes.

5. Cette IA prend-elle des décisions concernant les agents ?
Non. L'IA est un outil de signalement et d'analyse. Elle met en évidence des risques ou des schémas potentiels pour que des examinateurs humains puissent ensuite enquêter plus avant. C'est un humain qui prend la décision finale concernant toute mesure disciplinaire.

Questions avancées et basées sur les préoccupations

6. Quels sont les principaux avantages de l'utilisation de ce système ?
Détection proactive : Peut repérer des schémas subtils de faute professionnelle qui se développent avec le temps et que des examens manuels pourraient manquer.
Efficacité : Aide à prioriser les cas en analysant de vastes quantités de données beaucoup plus rapidement que les humains seuls.
Cohérence : Applique les mêmes critères d'analyse à l'ensemble de la force, réduisant les biais subjectifs dans le signalement initial.
Dissuasion : La connaissance qu'une telle surveillance existe peut dissuader certains manquements.

7. Quelles sont les plus grandes préoccupations ou risques ?
Principe "Garbage In, Garbage Out" : Si les données sous-jacentes sont biaisées ou inexactes, les signalements de l'IA le seront aussi, ciblant potentiellement injustement des agents.
Vie privée et surveillance : Préoccupations concernant l'étendue de la collecte de données sur les agents et la création d'un environnement de travail de surveillance omniprésente.