Metropolitan Police wykorzystuje narzędzia sztucznej inteligencji od Palantir do identyfikacji potencjalnych wykroczeń funkcjonariuszy.

Metropolitan Police wykorzystuje narzędzia sztucznej inteligencji od Palantir do identyfikacji potencjalnych wykroczeń funkcjonariuszy.

Z ustaleń „Guardiana” wynika, że Scotland Yard wykorzystuje narzędzia sztucznej inteligencji amerykańskiej firmy Palantir do monitorowania zachowań funkcjonariuszy w celu identyfikacji problematycznych pracowników. Policja Metropolitalna wcześniej odmawiała potwierdzenia lub zaprzeczenia wykorzystaniu technologii Palantir, która współpracuje również z izraelską armią oraz operacją ICE za czasów Donalda Trumpa. Obecnie przyznała, że używa AI Palantir do analizy wewnętrznych danych dotyczących zwolnień lekarskich, nieobecności i wzorców nadgodzin, aby wykrywać potencjalne uchybienia w standardach zawodowych.

Policja Federacyjna, reprezentująca szeregowych funkcjonariuszy, skrytykowała to podejście jako „zautomatyzowane podejrzewanie”. Ostrzegła, że funkcjonariusze nie powinni podlegać nieprzejrzystym lub nieprzetestowanym narzędziom, które mogą błędnie interpretować duże obciążenie pracą, chorobę lub nadgodziny jako oznaki niewłaściwego postępowania.

Z 46 000 funkcjonariuszy i pracowników Met jest największą siłą policyjną w Wielkiej Brytanii i borykała się z licznymi kontrowersjami, w tym zaniedbaniami w weryfikacji – co uwidoczniło zabójstwo Sarah Everard przez Wayne’a Couzensa – oraz tolerowaniem dyskryminacyjnych i mizoginicznych zachowań.

Formacja stwierdziła, że dowody sugerują związek między wysokim poziomem zwolnień lekarskich, zwiększoną liczbą nieobecności lub niezwykle wysokimi nadgodzinami a uchybieniami w standardach, kulturze i zachowaniu. Limitowany czasowo pilotaż technologii Palantir ma na celu połączenie danych z istniejących wewnętrznych baz danych, aby pomóc w identyfikacji takich wzorców, jako część szerszych starań na rzecz poprawy standardów i kultury. Podkreślono, że choć systemy Palantir pomagają wykrywać wzorce, to funkcjonariusze prowadzą dalsze dochodzenia i podejmują decyzje dotyczące standardów lub wydajności.

Rzecznik Policji Federacyjnej powiedział, że do każdego systemu profilowania funkcjonariuszy za pomocą algorytmów należy podchodzić z ogromną ostrożnością, zauważając, że policja już działa pod intensywnym nadzorem. Argumentował, że skupienie powinno pozostać na właściwym nadzorze, sprawiedliwych procedurach i ludzkiej ocenie, a nie na automatyzacji podejrzeń.

Palantir został również wciągnięty w kontrowersje dotyczące byłej roli Petera Mandelsona jako ambasadora Keira Starmera w USA, zanim został zwolniony z powodu powiązań z Jeffreyem Epsteinem. Firma lobbingowa Global Counsel, współwłasność Mandelsona, pracuje dla Palantir, który został współzałożony przez popierającego Trumpa miliardera Petera Thiela. Mandelson i Starmer odwiedzili zeszłego roku showroom Palantir w Waszyngtonie i spotkali się z jego dyrektorem generalnym Alexem Karpem, krótko po mianowaniu Mandelsona.

Posłowie wezwali do większej przejrzystości w sprawie kontraktów Palantir z brytyjskim sektorem publicznym, w tym umowy o wartości 330 milionów funtów z NHS w listopadzie 2023 roku na platformę danych oraz kontraktu o wartości 240 milionów funtów z Ministerstwem Obrony zawartego w grudniu 2025 roku.

W odpowiedzi na pilotaż Met, liberalno-demokratyczny poseł Martin Wrigley, członek parlamentarnej komisji nauki, wyraził zaniepokojenie prawami funkcjonariuszy jako pracowników, zauważając, że nadzór w miejscu pracy od dawna budzi kontrowersje. Zadał pytanie, kto nadzoruje Palantir, biorąc pod uwagę jego rosnącą rolę w rządzie.

AI Palantir jest już wykorzystywane przez kilka innych sił policyjnych do wspierania śledztw poprzez regionalne jednostki. W zeszłym miesiącu biała księga laburzystów w sprawie policji zobowiązała się do wspierania odpowiedzialnego wdrażania AI w szybkim tempie i na dużą skalę, planując inwestycję ponad 115 milionów funtów w ciągu trzech lat na rozwój i wdrożenie narzędzi AI we wszystkich 43 siłach policyjnych w Anglii i Walii.

Rzecznik Palantir odmówił komentarza. Jesteśmy dumni, że nasze oprogramowanie pomaga poprawiać usługi publiczne w całej Wielkiej Brytanii. Obejmuje to usprawnianie operacji policyjnych, wspieranie NHS w wykonywaniu większej liczby operacji oraz umożliwianie okrętom Royal Navy spędzania więcej czasu na morzu.

Często zadawane pytania
FAQs Policja Metropolitalna AI Palantir do identyfikacji wykroczeń funkcjonariuszy

Pytania poziomu podstawowego

1. O czym jest ta historia?
Policja Metropolitalna wykorzystuje oprogramowanie sztucznej inteligencji opracowane przez firmę analityczną Palantir do analizy wewnętrznych danych i oznaczania wzorców, które mogą wskazywać na potencjalne wykroczenia funkcjonariuszy.

2. Czym jest Palantir?
Palantir to amerykańska firma technologiczna specjalizująca się w analizie dużych zbiorów danych. Jej oprogramowanie jest zaprojektowane do znajdowania wzorców, powiązań i wniosków w masywnych i złożonych zestawach danych.

3. Dlaczego Policja Metropolitalna używa AI w tym celu?
Celem jest proaktywna identyfikacja niepokojących zachowań – takich jak powtarzające się skargi, powiązania z osobami wysokiego ryzyka lub naruszenia polityki – które w przeciwnym razie mogłyby pozostać niezauważone w oddzielnych rejestrach. Jest to część starań na rzecz odbudowy zaufania publicznego poprzez pociąganie funkcjonariuszy do odpowiedzialności.

4. Jakiego rodzaju dane analizuje AI?
System analizuje różne wewnętrzne źródła danych, które mogą obejmować rejestry skarg, incydenty z użyciem siły, frekwencję, ujawnienia finansowe i inne wewnętrzne raporty.

5. Czy ta AI podejmuje decyzje dotyczące funkcjonariuszy?
Nie. AI jest narzędziem do oznaczania i analizy. Wyróżnia potencjalne ryzyka lub wzorce, które następnie są dalej badane przez ludzkich recenzentów. Ostateczną decyzję w sprawie jakichkolwiek działań dyscyplinarnych podejmuje człowiek.

Zaawansowane pytania oparte na obawach

6. Jakie są główne korzyści z używania tego systemu?
* Wykrywanie proaktywne:* Może wykrywać subtelne wzorce wykroczeń rozwijające się w czasie, które ręczne przeglądy mogą przeoczyć.
* Wydajność:* Pomaga w priorytetyzacji spraw poprzez analizę ogromnych ilości danych znacznie szybciej niż sami ludzie.
* Spójność:* Stosuje te same kryteria analityczne w całej formacji, redukując subiektywne uprzedzenia w początkowym oznaczaniu.
* Czynnik odstraszający:* Wiedza o istnieniu takiego monitorowania może odstraszać od niektórych wykroczeń.

7. Jakie są największe obawy lub ryzyka?
* Śmieci na wejściu, śmieci na wyjściu:* Jeśli podstawowe dane są tendencyjne lub nieprecyzyjne, oznaczenia AI również takie będą, potencjalnie niesłusznie targetując funkcjonariuszy.
* Prywatność i nadzór:* Obawy dotyczące zakresu zbierania danych o funkcjonariuszach i tworzenia wszechobecnego nadzoru w miejscu pracy.