Aktivister hævder, at ansigtsgenkendelseskameraer er for racistisk forudindtaget til at blive brugt ved Notting Hill Carnival.

Aktivister hævder, at ansigtsgenkendelseskameraer er for racistisk forudindtaget til at blive brugt ved Notting Hill Carnival.

Elleve organisationer for borgerrettigheder og antiracisme opfordrer Metropolitan Police Commissioner Mark Rowley til at aflyse planerne om live ansigtsgenkendelse (LFR) under den kommende Notting Hill Carnival i næste weekend. De henviser til teknologiens raciale bias og en igangværende retssag.

I et brev, som The Guardian har fået adgang til, advarer grupperne om, at brugen af øjeblikkelige ansigtsskanningskameraer til en begivenhed, der fejrer det afro-caribiske fællesskab, "kun vil forværre bekymringerne om politiets magtmisbrug og racediskrimination inden for jeres styrke."

Underskriverne – herunder Runnymede Trust, Liberty, Big Brother Watch, Race on the Agenda og Human Rights Watch – hævder, at teknologien er "mindre præcis over for kvinder og farvede mennesker."

Kravet kommer efter seneste regeringsinitiativer til at udvide brugen af ansigtsgenkendelsesbiler til ni politistyrker i England og Wales.

Met Police har tidligere meddelt, at de vil placere særlige kameraer ved ind- og udgangspunkterne til den to-dages karneval i det vestlige London, som tiltrækker op til 2 millioner mennesker årligt – hvilket gør det til verdens næststørste gadekarneval.

Brevet udtaler: "Indsættelsen af LFR ved Notting Hill Carnival rammer uretfærdigt netop det fællesskab, som begivenheden fejrer. Met Police er allerede blevet fundet institutionelt racistisk i Baroness Caseys gennemgang, og diskriminerende politiarbejde har alvorligt undermineret tilliden til politiet. Brugen af denne teknologi her vil kun forstærke bekymringerne om racial bias og magtmisbrug."

Brevet nævner også, at anti-knivaktivist Shaun Thompson har indledt en retssag ved High Court efter Met's meddelelse. Thompson, en sort britisk mand, blev fejlagtigt markeret som kriminel af ansigtsgenkendelse, anholdt af politiet og presset til at afgive fingeraftryk.

"Hr. Thompson var på vej hjem efter at have frivilligt arbejdet med Street Fathers, en ungdomsgruppe mod vold, da betjente omringede ham og holdt ham fast i 30 minutter. Han sammenligner LFR's diskriminerende effekt med 'stop og visit på steroider,'" står der i brevet.

Aktivister hævder, at politiet har fået lov til at "selvregulere" teknologien, på trods af tidligere indstillinger, der fejlagtigt identificerede sorte personer i uforholdsmæssigt høj grad. En rapport fra National Physical Laboratory viste, at Met's NeoFace-system er mindre præcist over for kvinder og farvede mennesker ved visse indstillinger.

Rapportens forfatter, Dr. Tony Mansfield, anerkendte, at systemet ved lavere tærskler "viser bias mod sorte mænd og kvinder." Politiet er ikke lovmæssigt forpligtet til at bruge højere, mere præcise indstillinger.

I 2018 viste en undersøgelse fra MIT Media Lab, at ansigtsgenkendelse fra tre store virksomheder fejlagtigt identificerede mørkhyede kvinder i 21-35% af tilfældene, sammenlignet med mindre end 1% for lyshårede mænd.

Andre underskrivere inkluderer ledere fra Privacy Watch, Privacy International, Race Equality First, Open Rights Group, Access Now, StopWatch og Statewatch.

Met Police har oplyst, at kameraerne vil blive placeret nær karnevalets grænser – ikke inde i selve området – for at hjælpe betjente med at "identificere og afskære" personer, der udgør en risiko for offentlig sikkerhed, såsom eftersøgte for alvorlige forbrydelser som knivforbrydelser eller seksuelle overgreb.

Men borgerrettighedsgrupper blev alarmerede over at få at vide, at walisisk politi tidligere har brugt teknologien til at målrette mod billethajer.

Omkring 7.000 betjente vil blive udstationeret til årets karneval. Ifølge Metropolitan Police vil politibetjente og -medarbejdere være på arbejde gennem hele karnevalet. Live ansigtsgenkendelses (LFR) kameraer i nærheden af begivenheden vil scanne efter savnede personer og personer, der er underlagt foranstaltninger for at forhindre seksuelle overgreb. Der vil blive opstillet screeningsbuer ved større indgangspunkter, hvor betjente vil bruge deres beføjelser til stop og visit.

Selvom karnevalet forbliver community-ledet, har højtstående embedsmænd udtrykt sikkerhedsbekymringer og foreslået, at det enten skal flyttes til Hyde Park eller kræve billetter for at undgå overfyldte gader.

Indenrigsminister Yvette Cooper har nyligt annonceret planer om nye regler for brugen af LFR og udtalte: "Ansigtsgenkendelse vil målrette mod seksualforbrydere og personer, der er eftersøgt for alvorlige forbrydelser og som har undgået at blive fanget."

Met Police og South Wales Police har testet teknologien. Ifølge Met Police har LFR hjulpet med at foretage 580 anholdelser for forbrydelser som voldtægt, vold i hjemmet, knivkriminalitet, overfald og røveri – hvoraf 52 involverede registrerede seksualforbrydere, der overtrådte deres restriktioner.

Matt Ward, Met's Deputy Assistant Commissioner med ansvar for karnevalets politiarbejde, anerkendte vedvarende bekymringer om LFR i sorte og etniske minoritetsfællesskaber:

"Vi er forpligtet til at bruge teknologi ansvarligt for at hjælpe betjente med at arbejde mere effektivt. Derfor vil vi placere LFR-kameraer nær – men ikke inde i – karnevalområdet. Dette velprøvede værktøj har faciliteret over 1.000 anholdelser siden januar 2024.

"National Physical Laboratory-tests bekræfter, at vores system opretholder nøjagtighed på tværs af etniciteter og køn ved de nuværende indstillinger. Men vi erkender, at misforståelser fortsat eksisterer, især i farvede fællesskaber, og vi arbejder på at afhjælpe disse."



OFTR
### **Ofte stillede spørgsmål om ansigtsgenkendelse ved Notting Hill Carnival og bekymringer om racial bias**



#### **Grundlæggende spørgsmål**



**1. Hvorfor er aktivister imod ansigtsgenkendelse ved Notting Hill Carnival?**

Aktivister hævder, at teknologien er racialt biased og fejlidentificerer farvede mennesker hyppigere, hvilket fører til uretfærdig målretning og fejlagtige anholdelser af politiet.



**2. Hvad er ansigtsgenkendelsesteknologi?**

Ansigtsgenkendelse bruger AI til at scanne og matche ansigter i menneskemængder mod databaser, ofte til sikkerheds- eller politiformål.



**3. Hvordan påvirker racial bias ansigtsgenkendelse?**

Undersøgelser viser, at teknologien har højere fejlprocenter for mørkhyede personer, hvilket øger risikoen for fejlagtige anholdelser eller chikane.



**4. Er ansigtsgenkendelse blevet brugt ved Notting Hill Carnival før?**

Ja, politiet har testet det i tidligere år, men kritikere hævder, at det uretfærdigt målretter sorte deltagere på grund af unøjagtigheder.



**5. Hvad siger tilhængere af ansigtsgenkendelse ved karnevalet?**

Tilhængere hævder, at det hjælper med at forebygge kriminalitet og identificere forbrydere, men modstandere siger, at risikoen for bias opvejer fordelene.



---



#### **Avancerede spørgsmål**



**6. Hvilke beviser viser, at ansigtsgenkendelse er racialt biased?**

Forskning har vist fejlprocenter op til 34% højere for mørkhyede kvinder sammenlignet med lyshårede mænd.



**7. Er der love, der regulerer ansigtsgenkendelse ved offentlige begivenheder i Storbritannien?**

I øjeblikket kan britisk politi bruge live ansigtsgenkendelse i det offentlige rum, men kritikere kræver strengere regler for at forhindre misbrug.



**8. Har der været fejlagtige anholdelser på grund af ansigtsgenkendelse?**

Ja – flere tilfælde, som en sort mand, der blev fejlagtigt anholdt i London, viser risikoen for falske matches.



**9. Hvilke alternativer findes til sikkerhed ved Notting Hill Carnival?**

Muligheder inkluderer community policing, bedre crowd management og ikke-biased overvågningsmetoder.



**10. Hvordan kan folk protestere mod ansigtsgenkendelse ved karnevalet?**

Kampagner som *Big Brother Watch* arbejder for forbud, mens deltagere kan udtrykke bekymringer til lokale myndigheder og deltage i protester.



**11. Begrænser andre lande ansigtsgenkendelse ved offentlige begivenheder?**

Ja – nogle amerikanske byer og EU overvejer forbud eller strenge begrænsninger på grund af privatlivs- og bias-bekymringer.



**12. Kan ansigtsgenkendelse forbedres for at reducere bias?**

Eksperter siger, at bedre træningsdata og gennemsigtighed kunne hjælpe, men mange argumenterer for, at risikoen stadig er for høj til offentlig brug.