La Policía Metropolitana está utilizando herramientas de inteligencia artificial de Palantir para identificar posibles conductas indebidas de los agentes.

La Policía Metropolitana está utilizando herramientas de inteligencia artificial de Palantir para identificar posibles conductas indebidas de los agentes.

_The Guardian_ ha sabido que Scotland Yard está utilizando herramientas de inteligencia artificial de la empresa estadounidense Palantir para monitorizar el comportamiento de los agentes en un esfuerzo por identificar a empleados problemáticos. La Policía Metropolitana se había negado previamente a confirmar o negar el uso de tecnología de Palantir, que también trabaja con el ejército israelí y con la operación ICE de Donald Trump. Ahora ha reconocido utilizar la IA de Palantir para analizar datos internos sobre bajas por enfermedad, ausencias y patrones de horas extra con el fin de detectar posibles desviaciones de los estándares profesionales.

La Federación Policial, que representa a los agentes de base, criticó este enfoque como "sospecha automatizada". Advirtió que los agentes no deberían estar sujetos a herramientas opacas o no probadas que podrían malinterpretar cargas de trabajo pesadas, enfermedades u horas extra como signos de mala conducta.

Con 46.000 agentes y personal, la Met es la fuerza policial más grande del Reino Unido y ha enfrentado numerosas controversias, incluidos fallos en los controles de selección —puesto de relieve por el asesinato de Sarah Everard por Wayne Couzens— y la tolerancia de comportamientos discriminatorios y misóginos.

La fuerza afirmó que la evidencia sugiere un vínculo entre altos niveles de enfermedad, aumento de ausencias u horas extra inusualmente altas y fallos en los estándares, la cultura y el comportamiento. La prueba piloto de duración limitada de la tecnología de Palantir tiene como objetivo combinar datos de las bases de datos internas existentes para ayudar a identificar tales patrones, como parte de esfuerzos más amplios para mejorar los estándares y la cultura. Enfatizó que, si bien los sistemas de Palantir ayudan a detectar patrones, son los agentes quienes investigan más a fondo y toman cualquier determinación sobre estándares o desempeño.

Un portavoz de la Federación Policial dijo que cualquier sistema que perfile a agentes con algoritmos debe tratarse con extrema precaución, señalando que la policía ya opera bajo un escrutinio intenso. El enfoque, argumentaron, debería permanecer en la supervisión adecuada, los procesos justos y el juicio humano, en lugar de automatizar la sospecha.

Palantir también se ha visto envuelta en la controversia sobre el antiguo papel de Peter Mandelson como embajador de Keir Starmer en EE. UU., antes de ser destituido por sus vínculos con Jeffrey Epstein. Una firma de lobby copropiedad de Mandelson, Global Counsel, trabaja para Palantir, que fue cofundada por el multimillonario partidario de Trump, Peter Thiel. Mandelson y Starmer visitaron el showroom de Palantir en Washington el año pasado y se reunieron con su CEO, Alex Karp, poco después del nombramiento de Mandelson.

Los diputados han pedido mayor transparencia sobre los contratos del sector público del Reino Unido con Palantir, incluido un acuerdo de 330 millones de libras con el NHS en noviembre de 2023 para una plataforma de datos y un contrato de 240 millones de libras con el Ministerio de Defensa acordado en diciembre de 2025.

En respuesta a la prueba piloto de la Met, el diputado liberal demócrata Martin Wrigley, miembro del comité de ciencia de la Cámara de los Comunes, expresó preocupación por los derechos de los agentes como empleados, señalando que la vigilancia en el lugar de trabajo ha sido controvertida durante mucho tiempo. Preguntó quién supervisa a Palantir, dado su papel en expansión en el gobierno.

La IA de Palantir ya es utilizada por varias otras fuerzas policiales para ayudar en investigaciones a través de unidades regionales. El mes pasado, el libro blanco sobre policía del Partido Laborista se comprometió a apoyar la adopción responsable de la IA a gran velocidad y escala, planeando invertir más de 115 millones de libras en tres años para desarrollar e implementar herramientas de IA en las 43 fuerzas policiales de Inglaterra y Gales.

Un portavoz de Palantir declinó comentar. "Estamos orgullosos de que nuestro software ayude a mejorar los servicios públicos en todo el Reino Unido. Esto incluye mejorar las operaciones policiales, apoyar al NHS para realizar más cirugías y permitir que los barcos de la Royal Navy pasen más tiempo en el mar".



Preguntas Frecuentes
Preguntas Frecuentes La Policía Metropolitana IA de Palantir para Identificar Mala Conducta de Agentes



Preguntas de Nivel Básico



1 ¿De qué trata esta noticia?

La Policía Metropolitana está utilizando software de inteligencia artificial desarrollado por la empresa de análisis de datos Palantir para analizar datos internos y señalar patrones que podrían indicar posible mala conducta por parte de agentes.



2 ¿Qué es Palantir?

Palantir es una empresa tecnológica con sede en EE. UU. que se especializa en análisis de macrodatos. Su software está diseñado para encontrar patrones, vínculos e información dentro de conjuntos de datos masivos y complejos.



3 ¿Por qué la Policía Metropolitana utiliza IA para esto?

El objetivo es identificar de manera proactiva comportamientos preocupantes —como quejas repetidas, asociaciones con individuos de alto riesgo o violaciones de políticas— que de otro modo podrían pasar desapercibidos en registros separados. Es parte de un esfuerzo por reconstruir la confianza pública responsabilizando a los agentes.



4 ¿Qué tipo de datos analiza la IA?

El sistema analiza varias fuentes de datos internos, que pueden incluir registros de quejas, incidentes de uso de la fuerza, asistencia, declaraciones financieras y otros informes internos.



5 ¿Esta IA toma decisiones sobre los agentes?

No. La IA es una herramienta para señalar y analizar. Destaca posibles riesgos o patrones para que luego los revisores humanos investiguen más a fondo. Un humano toma la decisión final sobre cualquier medida disciplinaria.



Preguntas Avanzadas y Basadas en Preocupaciones



6 ¿Cuáles son los principales beneficios de usar este sistema?

Detección Proactiva: Puede detectar patrones sutiles de mala conducta que se desarrollan con el tiempo y que las revisiones manuales podrían pasar por alto.

Eficiencia: Ayuda a priorizar casos analizando vastas cantidades de datos mucho más rápido que los humanos por sí solos.

Consistencia: Aplica los mismos criterios analíticos en toda la fuerza, reduciendo el sesgo subjetivo en la señalización inicial.

Disuasión: El conocimiento de que existe dicha monitorización puede disuadir algunas conductas indebidas.



7 ¿Cuáles son las mayores preocupaciones o riesgos?

Basura entra, basura sale: Si los datos subyacentes están sesgados o son inexactos, las señales de la IA también lo estarán, pudiendo apuntar injustamente a agentes.

Privacidad y Vigilancia: Preocupaciones sobre la extensión de la recopilación de datos de los agentes y la creación de un lugar de trabajo de vigilancia generalizada.