Metropolitan Police bruger kunstig intelligens-værktøjer fra Palantir til at identificere potentiel tjenesteforsømmelse blandt betjente.

Metropolitan Police bruger kunstig intelligens-værktøjer fra Palantir til at identificere potentiel tjenesteforsømmelse blandt betjente.

The Guardian har fået at vide, at Scotland Yard bruger kunstig intelligens-værktøjer fra det amerikanske firma Palantir til at overvåge betjentes adfærd i et forsøg på at identificere problematisk personale. Metropolitan Police havde tidligere nægtet at be- eller afkræfte brugen af teknologi fra Palantir, som også arbejder med den israelske hær og Donald Trumps ICE-operation. De har nu erkendt, at de bruger Palantirs AI til at analysere interne data om sygdom, fravær og overtidsmønstre for at spotte potentielle brud på faglige standarder.

Politiforbundet, der repræsenterer de almindelige betjente, kritiserede tilgangen som "automatiseret mistanke." De advarede om, at betjente ikke bør underkastes uigennemsigtige eller uafprøvede værktøjer, der muligvis fejltolker store arbejdsbyrder, sygdom eller overtid som tegn på upassende adfærd.

Med 46.000 betjente og ansatte er Met Storbritanniens største politistyrke og har været udsat for adskillige kontroverser, herunder fejl ved baggrundstjek – fremhævet af Wayne Couzens' mord på Sarah Everard – og tolerance over for diskriminerende og kvindefjendsk adfærd.

Styrken oplyste, at der er indikationer på en sammenhæng mellem højt sygefravær, øget fravær eller usædvanligt høj overtid og manglende overholdelse af standarder, kultur og adfærd. Den tidsbegrænsede pilot med Palantirs teknologi har til formål at kombinere data fra eksisterende interne databaser for at hjælpe med at identificere sådanne mønstre som en del af bredere bestræbelser på at forbedre standarder og kultur. De understregede, at mens Palantirs systemer hjælper med at spotte mønstre, er det betjentene, der foretager yderligere undersøgelser og træffer eventuelle afgørelser om standarder eller præstationer.

En talsmand for Politiforbundet sagde, at ethvert system, der profilerer betjente med algoritmer, skal behandles med største forsigtighed, og bemærkede, at politiet allerede arbejder under intens granskning. Fokus, argumenterede de, bør forblive på ordentlig tilsyn, retfærdige processer og menneskelig vurdering snarere end at automatisere mistanke.

Palantir er også blevet trukket ind i kontroversen om Peter Mandelsons tidligere rolle som Keir Starmers ambassadør i USA, før han blev afskediget på grund af sine forbindelser til Jeffrey Epstein. Et lobbyfirma, Global Counsel, som Mandelson medejer, arbejder for Palantir, som blev medstiftet af den Trump-støttende milliardær Peter Thiel. Mandelson og Starmer besøgte Palantirs showroom i Washington sidste år og mødtes med dens administrerende direktør, Alex Karp, kort efter Mandelsons udnævnelse.

Medlemmer af parlamentet har krævet større gennemsigtighed om Palantirs kontrakter i den britiske offentlige sektor, herunder en aftale på 330 millioner pund med NHS i november 2023 om en dataplatform og en kontrakt på 240 millioner pund med forsvarsministeriet indgået i december 2025.

Som svar på Mets pilotudrulning udtrykte den liberaldemokratiske parlamentsmedlem Martin Wrigley, der er medlem af underhusets videnskabsudvalg, bekymring for betjentes rettigheder som ansatte og bemærkede, at overvågning på arbejdspladsen længe har været omstridt. Han spurgte, hvem der overvåger Palantir, i betragtning af firmaets voksende rolle i regeringen.

Palantirs AI bruges allerede af adskillige andre politistyrker til at assistere i efterforskninger gennem regionale enheder. Sidste måned forpligtede Labours politihvidbog sig til at støtte et ansvarligt og hurtigt og storskala implementering af AI, med planer om at investere over 115 millioner pund over tre år i at udvikle og udrulle AI-værktøjer i alle 43 politistyrker i England og Wales.

En talsmand for Palantir afslog at kommentere. "Vi er stolte af, at vores software hjælper med at forbedre de offentlige tjenester i hele Storbritannien. Dette inkluderer at forbedre politioperationer, at støtte NHS i at udføre flere operationer og at gøre det muligt for Royal Navy-skibe at tilbringe mere tid til søs."

**Ofte stillede spørgsmål**
FAQs om Met Police og Palantir AI til identifikation af betjentemisligheder

**Begynderspørgsmål**

1. **Hvad handler denne historie om?**
Metropolitan Police bruger kunstig intelligens-software udviklet af dataanalyseselskabet Palantir til at analysere interne data og flagge mønstre, der kan indikere potentiel upassende adfærd hos betjente.

2. **Hvad er Palantir?**
Palantir er et amerikansk teknologiselskab, der specialiserer sig i big data-analyse. Dens software er designet til at finde mønstre, sammenhænge og indsigter i enorme og komplekse datasæt.

3. **Hvorfor bruger Met Police AI til dette?**
Målet er proaktivt at identificere bekymrende adfærd – som gentagne klager, associationer med højrisikopersoner eller politikbrud – som ellers muligvis ikke ville blive opdaget i separate registre. Det er en del af en indsats for at genopbygge offentlig tillid ved at gøre betjente ansvarlige.

4. **Hvilken slags data kigger AI'en på?**
Systemet analyserer forskellige interne datakilder, som kan omfatte optegnelser over klager, hændelser med magtanvendelse, fremmøde, finansielle oplysninger og andre interne rapporter.

5. **Træffer denne AI beslutninger om betjente?**
Nej. AI'en er et værktøj til flagning og analyse. Den fremhæver potentielle risici eller mønstre, som menneskelige gennemgångere derefter kan undersøge nærmere. Et menneske træffer den endelige beslutning om eventuel disciplinær handling.

**Avancerede og bekymringsbaserede spørgsmål**

6. **Hvad er hovedfordelene ved at bruge dette system?**
* **Proaktiv detektion:** Kan spotte subtile mønstre af upassende adfærd, der udvikler sig over tid, som manuel gennemgang muligvis overser.
* **Effektivitet:** Hjælper med at prioritere sager ved at analysere enorme datamængder meget hurtigere end mennesker alene.
* **Konsistens:** Anvender de samme analytiske kriterier på tværs af hele styrken, hvilket reducerer subjektiv bias i den indledende flagning.
* **Afskrækkende virkning:** Viden om, at sådan overvågning findes, kan afskrække nogen fra upassende adfærd.

7. **Hvad er de største bekymringer eller risici?**
* **Garbage In, Garbage Out:** Hvis de underliggende data er biased eller unøjagtige, vil AI'ens flag også være det, hvilket potentielt kan målrette uretfærdigt mod betjente.
* **Privatliv & Overvågning:** Bekymringer om omfanget af dataindsamling på betjente og skabelsen af en gennemtrængende overvågningskultur på arbejdspladsen.