Der Guardian hat erfahren, dass Scotland Yard KI-Tools des US-Unternehmens Palantir einsetzt, um das Verhalten von Beamten zu überwachen und problematische Mitarbeiter zu identifizieren. Die Metropolitan Police hatte zuvor die Nutzung von Palantir-Technologie weder bestätigt noch dementiert – das Unternehmen arbeitet auch mit dem israelischen Militär und Donald Trumps Einwanderungsbehörde ICE zusammen. Nun räumte die Polizei ein, Palantirs KI zur Analyse interner Daten über Krankmeldungen, Abwesenheiten und Überstundenmuster zu nutzen, um mögliche Verstöße gegen Berufsstandards aufzudecken.
Die Police Federation, die die einfachen Beamten vertritt, kritisierte den Ansatz als „automatisierten Verdacht“. Sie warnte davor, Beamte undurchsichtigen oder unerprobten Tools zu unterwerfen, die hohe Arbeitslast, Krankheit oder Überstunden fälschlich als Fehlverhalten interpretieren könnten.
Mit 46.000 Beamten und Mitarbeitern ist die Met die größte Polizeibehörde Großbritanniens und war bereits in zahlreiche Kontroversen verwickelt, darunter Versäumnisse bei Überprüfungen – verdeutlicht durch den Mord von Wayne Couzens an Sarah Everard – sowie die Toleranz diskriminierenden und frauenfeindlichen Verhaltens.
Die Behörde erklärte, es gebe Hinweise auf einen Zusammenhang zwischen häufigen Krankmeldungen, vermehrten Abwesenheiten oder ungewöhnlich vielen Überstunden und Verfehlungen bei Standards, Kultur und Verhalten. Der zeitlich begrenzte Pilotversuch mit Palantirs Technologie ziele darauf ab, Daten aus bestehenden internen Datenbanken zu kombinieren, um solche Muster zu erkennen – als Teil umfassenderer Bemühungen, Standards und Kultur zu verbessern. Man betonte, dass Palantirs Systeme zwar Muster aufzeigen, aber Beamte weitere Ermittlungen durchführen und Entscheidungen über Standards oder Leistung treffen.
Ein Sprecher der Police Federation sagte, jedes System, das Beamte mit Algorithmen bewerte, müsse mit äußerster Vorsicht behandelt werden, da die Polizeiarbeit bereits unter intensiver Beobachtung stehe. Der Fokus solle auf angemessener Aufsicht, fairen Verfahren und menschlicher Urteilsfähigkeit liegen, nicht auf automatisiertem Verdacht.
Palantir wurde auch in die Kontroverse um Peter Mandelsons frühere Rolle als US-Botschafter von Keir Starmer verwickelt, bevor er wegen seiner Verbindungen zu Jeffrey Epstein entlassen wurde. Eine von Mandelson mitgegründete Lobbyfirma, Global Counsel, arbeitet für Palantir, das vom Trump-unterstützenden Milliardär Peter Thiel mitgegründet wurde. Mandelson und Starmer besuchten im letzten Jahr Palantirs Ausstellungsraum in Washington und trafen CEO Alex Karp kurz nach Mandelsons Ernennung.
Abgeordnete fordern mehr Transparenz bei Palantirs öffentlichen Aufträgen in Großbritannien, darunter ein 330-Millionen-Pfund-Vertrag mit dem NHS im November 2023 für eine Datenplattform und ein 240-Millionen-Pfund-Vertrag mit dem Verteidigungsministerium, der im Dezember 2025 vereinbart wurde.
Der liberaldemokratische Abgeordnete Martin Wrigley, Mitglied des Wissenschaftsausschusses des Unterhauses, äußerte sich besorgt über die Arbeitnehmerrechte der Beamten und verwies auf die lange umstrittene Überwachung am Arbeitsplatz. Angesichts der wachsenden Rolle Palantirs in der Regierung fragte er, wer das Unternehmen kontrolliere.
Palantirs KI wird bereits von mehreren anderen Polizeibehörden über regionale Einheiten zur Unterstützung von Ermittlungen genutzt. Im letzten Monat verpflichtete sich das Arbeitsprogramm der Labour-Partei zur verantwortungsvollen Einführung von KI in großem Maßstab und plant, über drei Jahre mehr als 115 Millionen Pfund in die Entwicklung und Einführung von KI-Tools bei allen 43 Polizeibehörden in England und Wales zu investieren.
Ein Palantir-Sprecher lehnte einen Kommentar ab. „Wir sind stolz darauf, dass unsere Software dazu beiträgt, öffentliche Dienstleistungen im gesamten Vereinigten Königreich zu verbessern. Dazu gehören die Verbesserung der Polizeiarbeit, die Unterstützung des NHS bei der Durchführung von mehr Operationen und die Ermöglichung längerer Einsätze von Royal-Navy-Schiffen auf See.“
Häufig gestellte Fragen
FAQs zur Met Police und Palantir-KI zur Identifizierung von Fehlverhalten bei Beamten
Einfache Fragen
1. Worum geht es in dieser Geschichte?
Die Metropolitan Police nutzt KI-Software des Datenanalyseunternehmens Palantir, um interne Daten zu analysieren und Muster zu kennzeichnen, die auf mögliches Fehlverhalten von Beamten hindeuten könnten.
2. Was ist Palantir?
Palantir ist ein US-Technologieunternehmen, das sich auf Big-Data-Analysen spezialisiert hat. Seine Software soll Muster, Verbindungen und Erkenntnisse innerhalb riesiger und komplexer Datensätze finden.
3. Warum nutzt die Met Police dafür KI?
Ziel ist es, problematisches Verhalten – wie wiederholte Beschwerden, Kontakte zu Hochrisikopersonen oder Verstöße gegen Vorschriften – proaktiv zu identifizieren, das in separaten Aufzeichnungen sonst unbemerkt bleiben könnte. Es ist Teil der Bemühungen, das öffentliche Vertrauen wiederherzustellen, indem Beamte zur Verantwortung gezogen werden.
4. Welche Daten analysiert die KI?
Das System analysiert verschiedene interne Datenquellen, darunter Aufzeichnungen über Beschwerden, Zwischenfälle mit Gewaltanwendung, Anwesenheit, finanzielle Offenlegungen und andere interne Berichte.
5. Trifft diese KI Entscheidungen über Beamte?
Nein. Die KI ist ein Werkzeug zur Kennzeichnung und Analyse. Sie hebt potenzielle Risiken oder Muster hervor, die menschliche Prüfer dann weiter untersuchen. Ein Mensch trifft die endgültige Entscheidung über disziplinarische Maßnahmen.
Fortgeschrittene und bedenkliche Fragen
6. Was sind die Hauptvorteile dieses Systems?
Proaktive Erkennung: Kann subtile Muster von Fehlverhalten erkennen, die sich über die Zeit entwickeln und bei manueller Überprüfung übersehen werden könnten.
Effizienz: Hilft bei der Priorisierung von Fällen, indem große Datenmengen viel schneller analysiert werden als nur durch Menschen.
Konsistenz: Wendet die gleichen analytischen Kriterien auf die gesamte Behörde an und reduziert subjektive Verzerrungen bei der ersten Kennzeichnung.
Abschreckung: Das Wissen, dass eine solche Überwachung existiert, kann einige Fehlverhalten verhindern.
7. Was sind die größten Bedenken oder Risiken?
Garbage In, Garbage Out: Wenn die zugrunde liegenden Daten verzerrt oder ungenau sind, werden auch die Kennzeichnungen der KI fehlerhaft sein und könnten Beamte ungerechtfertigt ins Visier nehmen.
Datenschutz- und Überwachungsbedenken: Besorgnis über das Ausmaß der Datenerfassung bei Beamten und die Schaffung eines allgegenwärtigen Überwachungsarbeitsplatzes.