A Polícia Metropolitana está usando ferramentas de inteligência artificial da Palantir para identificar possíveis condutas inadequadas de policiais.

A Polícia Metropolitana está usando ferramentas de inteligência artificial da Palantir para identificar possíveis condutas inadequadas de policiais.

O Guardian apurou que a Scotland Yard está a utilizar ferramentas de inteligência artificial da empresa norte-americana Palantir para monitorizar o comportamento dos agentes, numa tentativa de identificar funcionários problemáticos. A Polícia Metropolitana tinha anteriormente recusado confirmar ou negar o uso da tecnologia da Palantir, que também trabalha com o exército israelita e com a operação ICE de Donald Trump. Agora, reconheceu estar a usar a IA da Palantir para analisar dados internos sobre doenças, ausências e padrões de horas extras, de modo a detetar possíveis falhas nos padrões profissionais.

A Federação Policial, que representa os agentes da base, criticou a abordagem como "suspeição automatizada". Alertou que os agentes não devem estar sujeitos a ferramentas opacas ou não testadas que possam interpretar erroneamente cargas de trabalho pesadas, doenças ou horas extras como sinais de má conduta.

Com 46.000 agentes e funcionários, a Met é a maior força policial do Reino Unido e tem enfrentado inúmeras controvérsias, incluindo falhas na seleção — evidenciadas pelo assassinato de Sarah Everard por Wayne Couzens — e a tolerância a comportamentos discriminatórios e misóginos.

A força policial afirmou que as evidências sugerem uma ligação entre altos níveis de doença, aumento de ausências ou horas extraordinárias invulgarmente elevadas e falhas nos padrões, cultura e comportamento. O piloto com prazo limitado da tecnologia da Palantir visa combinar dados de bases de dados internas existentes para ajudar a identificar esses padrões, como parte de esforços mais amplos para melhorar os padrões e a cultura. Enfatizou que, embora os sistemas da Palantir ajudem a identificar padrões, são os agentes que investigam mais a fundo e tomam quaisquer determinações sobre padrões ou desempenho.

Um porta-voz da Federação Policial disse que qualquer sistema que perfile agentes com algoritmos deve ser tratado com extrema cautela, observando que a polícia já opera sob um escrutínio intenso. Argumentaram que o foco deve permanecer na supervisão adequada, processos justos e julgamento humano, em vez de automatizar a suspeita.

A Palantir também foi envolvida na controvérsia sobre o antigo papel de Peter Mandelson como embaixador de Keir Starmer nos EUA, antes de ser demitido devido às suas ligações com Jeffrey Epstein. Uma empresa de lobby co-propriedade de Mandelson, a Global Counsel, trabalha para a Palantir, que foi co-fundada pelo bilionário apoiante de Trump, Peter Thiel. Mandelson e Starmer visitaram o showroom da Palantir em Washington no ano passado e encontraram-se com o seu CEO, Alex Karp, pouco depois da nomeação de Mandelson.

Os deputados pediram maior transparência sobre os contratos da Palantir no setor público do Reino Unido, incluindo um acordo de 330 milhões de libras com o NHS em novembro de 2023 para uma plataforma de dados e um contrato de 240 milhões de libras com o Ministério da Defesa acordado em dezembro de 2025.

Respondendo ao piloto da Met, o deputado liberal-democrata Martin Wrigley, membro do comité de ciência da Câmara dos Comuns, expressou preocupação com os direitos dos agentes como funcionários, observando que a vigilância no local de trabalho tem sido há muito controversa. Questionou quem está a supervisionar a Palantir, dado o seu papel crescente no governo.

A IA da Palantir já é usada por várias outras forças policiais para auxiliar investigações através de unidades regionais. No mês passado, o livro branco da polícia do Partido Trabalhista comprometeu-se a apoiar a adoção responsável da IA a um ritmo e escala rápidos, planeando investir mais de 115 milhões de libras ao longo de três anos para desenvolver e implementar ferramentas de IA em todas as 43 forças policiais de Inglaterra e País de Gales.

Um porta-voz da Palantir recusou-se a comentar. "Estamos orgulhosos de que o nosso software ajude a melhorar os serviços públicos em todo o Reino Unido. Isso inclui melhorar as operações policiais, apoiar o NHS na realização de mais cirurgias e permitir que os navios da Marinha Real passem mais tempo no mar."

**Perguntas Frequentes**
FAQs A Polícia Metropolitana e a IA da Palantir para Identificar Má Conduta de Agentes

**Perguntas de Nível Iniciante**

1. **De que trata esta história?**
A Polícia Metropolitana está a usar software de inteligência artificial desenvolvido pela empresa de análise de dados Palantir para analisar dados internos e sinalizar padrões que possam indicar possíveis más condutas por parte dos agentes.

2. **O que é a Palantir?**
A Palantir é uma empresa de tecnologia sediada nos EUA que se especializa em análise de big data. O seu software é projetado para encontrar padrões, ligações e insights dentro de conjuntos de dados massivos e complexos.

3. **Por que é que a Polícia Metropolitana está a usar IA para isto?**
O objetivo é identificar proativamente comportamentos preocupantes — como queixas repetidas, associações com indivíduos de alto risco ou violações de políticas — que de outra forma poderiam passar despercebidos em registos separados. Faz parte de um esforço para reconstruir a confiança pública, responsabilizando os agentes.

4. **Que tipo de dados a IA está a analisar?**
O sistema analisa várias fontes de dados internos, que podem incluir registos de queixas, incidentes de uso da força, assiduidade, divulgações financeiras e outros relatórios internos.

5. **Esta IA está a tomar decisões sobre os agentes?**
Não. A IA é uma ferramenta de sinalização e análise. Destaca potenciais riscos ou padrões para que revisores humanos investiguem mais a fundo. Um humano toma a decisão final sobre qualquer ação disciplinar.

**Perguntas Avançadas e Baseadas em Preocupações**

6. **Quais são os principais benefícios de usar este sistema?**
- **Deteção Proativa:** Pode detetar padrões subtis de má conduta que se desenvolvem ao longo do tempo e que revisões manuais podem perder.
- **Eficiência:** Ajuda a priorizar casos analisando vastas quantidades de dados muito mais rapidamente do que os humanos sozinhos.
- **Consistência:** Aplica os mesmos critérios analíticos em toda a força, reduzindo o viés subjetivo na sinalização inicial.
- **Dissuasor:** O conhecimento de que tal monitorização existe pode dissuadir algumas más condutas.

7. **Quais são as maiores preocupações ou riscos?**
- **Garbage In, Garbage Out:** Se os dados subjacentes forem tendenciosos ou imprecisos, as sinalizações da IA também o serão, podendo direcionar injustamente os agentes.
- **Privacidade e Vigilância:** Preocupações sobre a extensão da recolha de dados sobre os agentes e a criação de um local de trabalho de vigilância pervasiva.