Metropolitan Police bruker kunstig intelligens-verktøy fra Palantir for å identifisere potensiell tjenesteforsømmelse blant polititjenestemenn.

Metropolitan Police bruker kunstig intelligens-verktøy fra Palantir for å identifisere potensiell tjenesteforsømmelse blant polititjenestemenn.

The Guardian har fått vite at Scotland Yard bruker kunstig intelligens-verktøy fra det amerikanske selskapet Palantir for å overvåke atferden til politibetjenter i et forsøk på å identifisere problematisk personell. Metropolitan Police hadde tidligere nektet å bekrefte eller avkrefte bruken av teknologi fra Palantir, som også samarbeider med det israelske militæret og Donald Trumps ICE-operasjon. De har nå erkjent at de bruker Palantirs KI for å analysere interne data om sykefravær, fravær og overtidsmønstre for å oppdage potensielle brudd på faglige standarder.

Politiforbundet, som representerer de vanlige politibetjentene, kritisertet tilnærmingen som «automatisert mistanke». De advarte om at betjenter ikke bør være underlagt uklare eller uavprøvde verktøy som kan feiltolke høye arbeidsmengder, sykdom eller overtid som tegn på upassende atferd.

Med 46 000 betjenter og ansatte er Met Storbritannias største politistyrke og har vært involvert i mange kontroverser, inkludert svikt i sikkerhetskontroller – fremhevet av Wayne Couzens' drap på Sarah Everard – og toleranse for diskriminerende og kvinnefiendtlig atferd.

Politistyrken oppga at bevis tyder på en sammenheng mellom høyt sykefravær, økt fravær eller uvanlig mye overtid og svikt i standarder, kultur og atferd. Den tidsbegrensede prøveperioden med Palantirs teknologi har som mål å kombinere data fra eksisterende interne databaser for å hjelpe til med å identifisere slike mønstre, som en del av bredere anstrengelser for å forbedre standarder og kultur. De understreket at selv om Palantirs systemer hjelper til med å oppdage mønstre, er det betjentene som undersøker nærmere og tar eventuelle avgjørelser om standarder eller ytelse.

En talsperson for Politiforbundet sa at ethvert system som profilerer betjenter med algoritmer, må behandles med stor forsiktighet, og bemerket at politiet allerede opererer under intens gransking. Fokuset, hevdet de, bør forbli på riktig tilsyn, rettferdige prosesser og menneskelig skjønn, snarere enn å automatisere mistanke.

Palantir har også blitt trukket inn i kontroversen rundt Peter Mandelsons tidligere rolle som Keir Starmers ambassadør til USA, før han ble avskjediget på grunn av sine forbindelser til Jeffrey Epstein. Et lobbyfirma med Mandelson som medeier, Global Counsel, jobber for Palantir, som ble medgrunnlagt av den Trump-støttende milliardæren Peter Thiel. Mandelson og Starmer besøkte Palantirs utstillingslokale i Washington i fjor og møtte administrerende direktør Alex Karp, kort tid etter at Mandelson ble utnevnt.

Parlamentsmedlemmer har krevd større åpenhet om Palantirs kontrakter i den britiske offentlige sektoren, inkludert en avtale på 330 millioner pund med NHS i november 2023 for en dataplattform og en kontrakt på 240 millioner pund med forsvarsdepartementet inngått i desember 2025.

Som svar på Mets prøveprosjekt uttrykte liberaldemokraten Martin Wrigley, medlem av underhusets vitkomstkomité, bekymring for betjentenes rettigheter som ansatte, og bemerket at overvåking på arbeidsplassen lenge har vært omstridt. Han stilte spørsmål ved hvem som overvåker Palantir, gitt selskapets økende rolle i regjeringen.

Palantirs KI blir allerede brukt av flere andre politistyrker for å bistå i etterforskninger gjennom regionale enheter. I forrige måned forpliktet Labour seg i sin politihvitbok til å støtte et ansvarlig vedtak av KI i raskt tempo og på stor skala, og planla å investere over 115 millioner pund over tre år for å utvikle og rulle ut KI-verktøy i alle 43 politistyrkene i England og Wales.

En talsperson for Palantir avslo å kommentere. «Vi er stolte av at programvaren vår hjelper til med å forbedre offentlige tjenester over hele Storbritannia. Dette inkluderer å forbedre politioperasjoner, støtte NHS i å utføre flere operasjoner og gjøre det mulig for Royal Navy-skip å tilbringe mer tid til sjøs.»

Vanlige spørsmål
FAQs om Met Police og Palantir KI for identifisering av upassende atferd hos betjenter

Nybegynnerspørsmål

1. Hva handler denne saken om?
Metropolitan Police bruker programvare for kunstig intelligens utviklet av dataanalyseselskapet Palantir for å analysere interne data og flagge mønstre som kan indikere potensiell upassende atferd hos betjenter.

2. Hva er Palantir?
Palantir er et amerikansk teknologiselskap som spesialiserer seg på big data-analyse. Programvaren deres er designet for å finne mønstre, lenker og innsikt i store og komplekse datasett.

3. Hvorfor bruker Met Police KI til dette?
Målet er å proaktivt identifisere bekymringsverdig atferd – som gjentatte klager, tilknytninger til høyrisikoindivider eller brudd på retningslinjer – som ellers kan gå ubemerket i separate registre. Det er en del av en innsats for å gjenoppbygge offentlig tillit ved å holde betjenter ansvarlige.

4. Hva slags data ser KI på?
Systemet analyserer ulike interne datakilder, som kan inkludere registre over klager, bruk av makt-hendelser, oppmøte, økonomiske opplysninger og andre interne rapporter.

5. Tar denne KI-en beslutninger om betjenter?
Nei. KI-en er et verktøy for flagging og analyse. Den fremhever potensielle risikoer eller mønstre for menneskelige vurderere å undersøke nærmere. Et menneske tar den endelige avgjørelsen om eventuelle disiplinære tiltak.

Avanserte og bekymringsbaserte spørsmål

6. Hva er hovedfordelene med å bruke dette systemet?
Proaktiv oppdagelse: Kan oppdage subtile mønstre av upassende atferd som utvikler seg over tid, som manuelle gjennomganger kan overse.
Effektivitet: Hjelper til med å prioritere saker ved å analysere store datamengder mye raskere enn mennesker alene.
Konsistens: Anvender de samme analytiske kriteriene over hele styrken, noe som reduserer subjektiv skjevhet i innledende flagging.
Avskrekkende virkning: Kunnskapen om at slik overvåking eksisterer, kan avskrekke noen fra upassende atferd.

7. Hva er de største bekymringene eller risikoene?
Dårlig data gir dårlige resultater: Hvis de underliggende dataene er skjeve eller unøyaktige, vil KI-ens flagging også være det, og kan potensielt rette seg mot betjenter på en urettferdig måte.
Personvern og overvåking: Bekymringer om omfanget av datainnsamling på betjenter og skapelsen av en gjennomtrengende overvåkingsarbeidsplass.