Google har tagit bort några av sina AI-genererade sammanfattningar efter att användare rapporterat att informationen utsatte deras hälsa för risk, och kallat situationen "farlig och alarmerande."

Google har tagit bort några av sina AI-genererade sammanfattningar efter att användare rapporterat att informationen utsatte deras hälsa för risk, och kallat situationen "farlig och alarmerande."

Google har tagit bort några av sina AI-genererade hälsosammanfattningar efter att en undersökning av The Guardian visat att falsk och vilseledande information utsatte människor för risk.

Företaget beskriver sina AI-översikter – som använder generativ AI för att ge snabba sammanfattningar om ett ämne eller en fråga – som "hjälpsamma" och "pålitliga". Men några av dessa sammanfattningar, som dyker upp högst upp i sökresultaten, har gett felaktig hälsoinformation som kan skada användare.

I ett fall som experter kallat "farligt" och "alarmande" gav Google felaktig information om viktiga leverfunktionstester. Detta kan leda till att personer med allvarlig leversjukdom felaktigt tror att de är friska. När The Guardian sökte på "what is the normal range for liver blood tests" (vad är det normala intervallet för leverblodprov) fann man att Google presenterade en lista med siffror med lite kontext och utan hänsyn till faktorer som nationalitet, kön, etnicitet eller ålder.

Experter varnade för att det som Googles AI-översikt betecknade som normalt kunde skilja sig dramatiskt från faktiska medicinska standarder. Detta kan få allvarligt sjuka patienter att anta att deras testresultat var bra och strunta i viktiga uppföljningsbesök.

Efter undersökningen tog Google bort AI-översikter för söktermerna "what is the normal range for liver blood tests" och "what is the normal range for liver function tests".

En talesperson för Google sa: "Vi kommenterar inte enskilda borttagningar inom Sök. I fall där AI-översikter saknar viss kontext arbetar vi med breda förbättringar, och vi vidtar också åtgärder enligt våra policyer där det är lämpligt."

Vanessa Hebditch, kommunikations- och policydirektör på British Liver Trust, välkomnade borttagningen men uttryckte fortsatt oro. "Det här är utmärkta nyheter, och vi är glada över att se att Google AI-översikterna har tagits bort i dessa fall", sa hon. "Men om frågan ställs på ett annat sätt kan en potentiellt vilseledande AI-översikt fortfarande dyka upp, och vi är fortfarande oroliga för att annan AI-producerad hälsoinformation kan vara felaktig och förvirrande."

The Guardian fann att även små variationer av den ursprungliga sökningen – som "lft reference range" eller "lft test reference range" – fortfarande utlöste AI-översikter. Hebditch sa att detta var oroväckande. "Ett leverfunktionstest är en samling olika blodprov. Att förstå resultaten innebär mycket mer än att jämföra en uppsättning siffror", förklarade hon. "AI-översikterna presenterar en lista i fetstil, vilket gör det lätt för läsare att missa att dessa siffror kanske inte ens är relevanta för deras test. De varnar inte heller för att någon kan ha normala resultat trots allvarlig leversjukdom, vilket kräver ytterligare vård. Denna falska trygghet kan vara mycket skadlig."

Google, som har en 91-procentig andel av den globala sökmarknaden, sa att de granskar de nya exemplen som The Guardian har tillhandahållit.

Hebditch tillade: "Vår större oro är att detta adresserar ett enda sökresultat, och Google kan helt enkelt stänga av AI-översikten för den frågan, men det löser inte det större problemet med AI-översikter för hälsoinformation."

Sue Farrington, ordförande för Patient Information Forum, välkomnade också borttagningen men delade liknande farhågor. "Det här är ett bra resultat, men det är bara det allra första steget för att upprätthålla förtroendet för Googles hälsorelaterade sökresultat. Det finns fortfarande för många exempel på att Google AI-översikter ger människor felaktig hälsoinformation."

Farrington noterade att miljontals vuxna över hela världen redan kämpar för att få tillgång till pålitlig hälsoinformation. "Det är därför det är så viktigt att Google leder människor till robust, forskad hälsoinformation."

AI-översikter fortsätter att dyka upp för andra exempel som The Guardian ursprungligen framhävde för Google. Dessa inkluderar sammanfattningar om cancer och psykisk hälsa som experter har kallat "helt felaktiga" och "riktigt farliga".

När de tillfrågades om varför dessa AI-översikter inte hade tagits bort, uppgav Google att de länkar till välkända och ansedda källor och råder användare när det är viktigt att söka expertråd.

En talesperson sa: "Vårt interna team av kliniker granskade exemplen som delades med oss och fann att informationen i många fall inte var felaktig och stöddes av högkvalitativa webbplatser."

Victor Tangermann, seniorredaktör på Futurism, sa att The Guardians undersökning visar att Google fortfarande har arbete kvar "för att säkerställa att dess AI-verktyg inte sprider farlig hälsoinformation."

Google uppgav att AI-översikter endast visas för frågor där de har hög tilltro till svarens kvalitet. Företaget tillade att de ständigt mäter och granskar kvaliteten på sina sammanfattningar över många informationskategorier.

I en artikel för Search Engine Journal noterade seniorförfattaren Matt Southern: "AI-översikter visas ovanför rankade sökresultat. När ämnet är hälsa har misstag större betydelse."



Vanliga frågor
Självklart! Här är en lista med vanliga frågor om Googles borttagning av AI-genererade söksammanfattningar som flaggats som farliga.





Nybörjarfrågor



1. Vad hände med Googles AI-söksammanfattningar?

Google tog nyligen bort några av de AI-genererade svaren i sina sökresultat efter att användare delat exempel där råden var felaktiga och potentiellt skadliga, särskilt för hälsofrågor.



2. Vad är en AI-översikt i Google Sök?

Det är en ny funktion där Google använder sin Gemini AI för att generera en koncis sammanfattning högst upp i sökresultaten, och hämtar information från webbplatser så att du inte behöver klicka på flera länkar.



3. Vilken typ av farliga svar gavs?

Några vitt delade exempel inkluderade AI som föreslog att användare skulle tillsätta lim i pizzasås för att den skulle bli klibbigare eller att äta stenar är fördelaktigt. För hälsa gav den felaktiga råd, som hur många stenar man ska äta per dag, vilket uppenbarligen är osäkert.



4. Varför gav AI så bisarra svar?

AI-modeller kan ibland missförstå lågkvalitativ, satirisk eller skämtsam innehåll från webben som faktamässig information. De har ingen verklig världsförståelse eller sunt förnuft för att veta att råden är farliga.



5. Har Google löst problemet?

Google har tagit bort de specifika felaktiga AI-översikterna som rapporterades och säger att de gör tekniska förbättringar för att förhindra den här typen av fel. Men kärnutmaningen med AI-hallucinationer är ett pågående problem.





Avancerade och praktiska frågor



6. Vad betyder detta för framtiden för AI i sökning?

Det belyser ett stort hinder för AI-drivna sökningar: att balansera hastighet och bekvämlighet med noggrannhet och säkerhet. Den här incidenten kommer sannolikt att sakta ner den fulla utrullningen och tvinga fram mer mänsklig tillsyn, striktare skyddsräcken och bättre källverifiering.



7. Hur kan jag veta om en AI-översikt är tillförlitlig?

*Kolla källorna:* Klicka på den lilla pilen bredvid sammanfattningen för att se vilka webbplatser informationen hämtades från. Är de ansedda?

*Använd sunt förnuft:* Om ett svar verkar konstigt, chockerande eller för enkelt för ett komplext ämne, är det sannolikt det.

*Stanna inte vid sammanfattningen:* Konsultera alltid de länkade källorna eller gör ytterligare research, särskilt för hälsa-, ekonomi- eller juridikinformation.



8. Kan jag stänga av AI-översikter i mina sökresultat?

För närvarande finns det ingen universell av/på-knapp.