Aktivister hävdar att ansiktsigenkänningskameror är för raspartiska för att användas på Notting Hill Carnival.

Aktivister hävdar att ansiktsigenkänningskameror är för raspartiska för att användas på Notting Hill Carnival.

Elva organisationer för medborgerliga rättigheter och mot rasism uppmanar Metropolitan Police Commissioner Mark Rowley att avbryta planerna på att använda live facial recognition (LFR) under nästa helgs Notting Hill Carnival, med hänvisning till teknologins rasbias och en pågående rättslig utmaning.

I ett brev som The Guardian har tagit del av varnar grupperna för att användningen av ansiktsigenkänningskameror i realtid vid en evenemang som firar den afro-karibiska gemenskapen "bara kommer att förvärra farhågor om polisens maktmissbruk och rasdiskriminering inom er styrka."

Undertecknarna—inklusive Runnymede Trust, Liberty, Big Brother Watch, Race on the Agenda och Human Rights Watch—hävdar att teknologin är "mindre exakt för kvinnor och personer med mörkare hudfärg."

Kravet kommer efter att regeringen nyligen tagit initiativ att utöka användningen av ansiktsigenkänningsbilar över nio polismyndigheter i England och Wales.

Metropolitan Police har tidigare meddelat att de kommer att placera särskilda kameror vid in- och utgångarna till den två dagar långa karnevalen i västra London, som lockar upp till 2 miljoner besökare årligen—vilket gör den till världens näst största gatufestival.

Brevet lyder: "Att använda LFR vid Notting Hill Carnival riktar sig orättvist mot just den gemenskap som evenemanget firar. Metropolitan Police har redan befunnits institutionellt rasistiska i Baroness Caseys granskning, och diskriminerande polispraxis har allvarligt skadat förtroendet för polisen. Att använda denna teknik här kommer bara att fördjupa farhågor om rasbias och maktmissbruk."

Brevet nämner också att sedan Metropolitan Police tillkännagav sina planer har antiknivkampanjören Shaun Thompson inlett en rättslig process vid High Court. Thompson, en svart britt, blev felaktigt flaggad som brottsling av ansiktsigenkänning, greps av polisen och tvingades lämna fingeravtryck.

"Herr Thompson var på väg hem efter att ha volontärarbetat med Street Fathers, en ungdomsgrupp mot våld, när poliser omringade honom och höll kvar honom i 30 minuter. Han jämför LFR:s diskriminerande effekt med 'stopp och visitering på steroider'," står det i brevet.

Aktivister hävdar att polisen har tillåtits att "självreglera" teknologin, trots tidigare inställningar som i oproportionerligt hög grad felidentifierade svarta individer. En rapport från National Physical Laboratory visade att Metropolitan Police:s NeoFace-system är mindre exakt för kvinnor och personer med mörkare hudfärg vid vissa inställningar.

Dr. Tony Mansfield, rapportens författare, erkände att vid lägre tröskelvärden visar systemet "bias mot svarta män och kvinnor." Polisen är inte juridiskt skyldiga att använda högre, mer exakta inställningar.

År 2018 visade en studie från MIT Media Lab att ansiktsigenkänning från tre stora företag felidentifierade mörkhyade kvinnor i 21–35 % av fallen, jämfört med mindre än 1 % för ljushyade män.

Andra undertecknare inkluderar ledare från Privacy Watch, Privacy International, Race Equality First, Open Rights Group, Access Now, StopWatch och Statewatch.

Metropolitan Police har uppgett att kamerorna kommer att placeras nära karnevalens gränser—inte inuti—för att hjälpa polisen att "identifiera och avskärma" individer som utgör en risk för allmän säkerhet, såsom efterlysta för allvarliga brott som knivbrott eller sexuella övergrepp.

Men medborgerliga rättighetsgrupper blev förskräckta när de fick veta att polisen i Wales tidigare använt tekniken för att rikta in sig på biljettförfalskare.

Cirka 7 000 poliser kommer att vara utplacerade under årets karneval. Poliser och personal kommer att vara i tjänst under hela karnevalen, enligt Metropolitan Police. Live facial recognition (LFR)-kameror nära evenemanget kommer att söka efter försvunna personer och individer som omfattas av skyddande åtgärder mot sexuellt våld. Screeningbågar kommer att sättas upp vid större ingångar, där polisen kommer att använda sina befogenheter för stopp och visitering.

Medan karnevalen fortsätter att vara community-ledd har höga tjänstemän uttryckt säkerhetsbekymmer och föreslagit att den antingen bör flyttas till Hyde Park eller kräva biljetter för att förhindra trängsel i smala gator.

Inrikesminister Yvette Cooper har nyligen tillkännagivit planer på nya regler för användningen av LFR och sagt: "Ansiktsigenkänning kommer att rikta in sig på sexualbrottslingar och efterlysta för allvarliga brott som undkommit gripande."

Metropolitan Police och South Wales Police har testat tekniken. Enligt Metropolitan Police har LFR bidragit till 580 gripanden för brott inklusive våldtäkt, våld i nära relationer, knivbrott, misshandel och rån—varav 52 involverade registrerade sexualbrottslingar som brutit mot sina restriktioner.

Matt Ward, Metropolitan Police:s biträdande polischef med ansvar för karnevalens säkerhet, erkände kvarstående farhågor om LFR i svarta och etniska minoritetsgemenskaper:

"Vi är engagerade i att använda teknik på ett ansvarsfullt sätt för att hjälpa polisen att arbeta mer effektivt. Därför kommer vi att placera LFR-kameror nära—men inte inuti—karnevalområdet. Detta beprövade verktyg har lett till över 1 000 gripanden sedan januari 2024.

"Tester från National Physical Laboratory bekräftar att vårt system upprätthåller noggrannhet över etniciteter och kön vid nuvarande inställningar. Men vi erkänner att missuppfattningar kvarstår, särskilt i färgade gemenskaper, och vi arbetar för att adressera dessa."

VANLIGA FRÅGOR
### **Vanliga frågor om ansiktsigenkänning vid Notting Hill Carnival och farhågor om rasbias**



#### **Grundläggande frågor**



**1. Varför är aktivister emot ansiktsigenkänning vid Notting Hill Carnival?**

Aktivister hävdar att tekniken är rasistiskt biased och felidentifierar personer med mörkare hudfärg oftare, vilket leder till orättvisa kontroller och felaktiga gripanden av polisen.



**2. Vad är ansiktsigenkänningsteknik?**

Ansiktsigenkänning använder AI för att skanna och matcha ansikten i folkmassor mot databaser, ofta för säkerhets- eller polisiära ändamål.



**3. Hur påverkar rasbias ansiktsigenkänning?**

Studier visar att tekniken har högre felmarginaler för mörkhyade individer, vilket ökar risken för felaktiga gripanden eller trakasserier.



**4. Har ansiktsigenkänning använts vid Notting Hill Carnival tidigare?**

Ja, polisen har testat det under tidigare år, men kritiker säger att det orättvist riktar sig mot svarta deltagare på grund av felaktigheter.



**5. Vad säger förespråkare om användningen av ansiktsigenkänning vid karnevalen?**

Förespråkare hävdar att det hjälper till att förhindra brott och identifiera brottslingar, men motståndare menar att riskerna för bias överväger fördelarna.



---



#### **Avancerade frågor**



**6. Vilka bevis finns på att ansiktsigenkänning är rasistiskt biased?**

Forskning har visat att felmarginalerna kan vara upp till 34 % högre för mörkhyade kvinnor jämfört med ljushyade män.



**7. Finns det lagar som reglerar ansiktsigenkänning vid offentliga evenemang i Storbritannien?**

För närvarande kan brittisk polis använda live facial recognition offentligt, men kritiker kräver strängare regler för att förhindra missbruk.



**8. Har det skett felaktiga gripanden på grund av ansiktsigenkänning?**

Ja—flera fall, som en svart man som felaktigt greps i London, visar riskerna med falska matchningar.



**9. Vilka alternativ finns för säkerhet vid Notting Hill Carnival?**

Alternativ inkluderar community policing, bättre folkmassestyrning och icke-biased övervakningsmetoder.



**10. Hur kan man protestera mot ansiktsigenkänning vid karnevalen?**

Kampanjer som *Big Brother Watch* driver för förbud, medan deltagare kan uttrycka sina farhågor till lokala tjänstemän och delta i protester.



**11. Begränsar andra länder ansiktsigenkänning vid offentliga evenemang?**

Ja—vissa amerikanska städer och EU överväger förbud eller strikta begränsningar på grund av integritets- och biasfarhågor.



**12. Kan ansiktsigenkänning förbättras för att minska bias?**

Experter säger att bättre träningsdata och transparens kan hjälpa, men många hävdar att riskerna fortfarande är för höga för allmänheten.