Google har tagit bort nÄgra av sina AI-genererade hÀlsosammanfattningar efter att en undersökning av The Guardian visat att falsk och vilseledande information utsatte mÀnniskor för risk.
Företaget beskriver sina AI-översikter â som anvĂ€nder generativ AI för att ge snabba sammanfattningar om ett Ă€mne eller en frĂ„ga â som "hjĂ€lpsamma" och "pĂ„litliga". Men nĂ„gra av dessa sammanfattningar, som dyker upp högst upp i sökresultaten, har gett felaktig hĂ€lsoinformation som kan skada anvĂ€ndare.
I ett fall som experter kallat "farligt" och "alarmande" gav Google felaktig information om viktiga leverfunktionstester. Detta kan leda till att personer med allvarlig leversjukdom felaktigt tror att de Àr friska. NÀr The Guardian sökte pÄ "what is the normal range for liver blood tests" (vad Àr det normala intervallet för leverblodprov) fann man att Google presenterade en lista med siffror med lite kontext och utan hÀnsyn till faktorer som nationalitet, kön, etnicitet eller Älder.
Experter varnade för att det som Googles AI-översikt betecknade som normalt kunde skilja sig dramatiskt frÄn faktiska medicinska standarder. Detta kan fÄ allvarligt sjuka patienter att anta att deras testresultat var bra och strunta i viktiga uppföljningsbesök.
Efter undersökningen tog Google bort AI-översikter för söktermerna "what is the normal range for liver blood tests" och "what is the normal range for liver function tests".
En talesperson för Google sa: "Vi kommenterar inte enskilda borttagningar inom Sök. I fall dÀr AI-översikter saknar viss kontext arbetar vi med breda förbÀttringar, och vi vidtar ocksÄ ÄtgÀrder enligt vÄra policyer dÀr det Àr lÀmpligt."
Vanessa Hebditch, kommunikations- och policydirektör pÄ British Liver Trust, vÀlkomnade borttagningen men uttryckte fortsatt oro. "Det hÀr Àr utmÀrkta nyheter, och vi Àr glada över att se att Google AI-översikterna har tagits bort i dessa fall", sa hon. "Men om frÄgan stÀlls pÄ ett annat sÀtt kan en potentiellt vilseledande AI-översikt fortfarande dyka upp, och vi Àr fortfarande oroliga för att annan AI-producerad hÀlsoinformation kan vara felaktig och förvirrande."
The Guardian fann att Ă€ven smĂ„ variationer av den ursprungliga sökningen â som "lft reference range" eller "lft test reference range" â fortfarande utlöste AI-översikter. Hebditch sa att detta var orovĂ€ckande. "Ett leverfunktionstest Ă€r en samling olika blodprov. Att förstĂ„ resultaten innebĂ€r mycket mer Ă€n att jĂ€mföra en uppsĂ€ttning siffror", förklarade hon. "AI-översikterna presenterar en lista i fetstil, vilket gör det lĂ€tt för lĂ€sare att missa att dessa siffror kanske inte ens Ă€r relevanta för deras test. De varnar inte heller för att nĂ„gon kan ha normala resultat trots allvarlig leversjukdom, vilket krĂ€ver ytterligare vĂ„rd. Denna falska trygghet kan vara mycket skadlig."
Google, som har en 91-procentig andel av den globala sökmarknaden, sa att de granskar de nya exemplen som The Guardian har tillhandahÄllit.
Hebditch tillade: "VÄr större oro Àr att detta adresserar ett enda sökresultat, och Google kan helt enkelt stÀnga av AI-översikten för den frÄgan, men det löser inte det större problemet med AI-översikter för hÀlsoinformation."
Sue Farrington, ordförande för Patient Information Forum, vÀlkomnade ocksÄ borttagningen men delade liknande farhÄgor. "Det hÀr Àr ett bra resultat, men det Àr bara det allra första steget för att upprÀtthÄlla förtroendet för Googles hÀlsorelaterade sökresultat. Det finns fortfarande för mÄnga exempel pÄ att Google AI-översikter ger mÀnniskor felaktig hÀlsoinformation."
Farrington noterade att miljontals vuxna över hela vÀrlden redan kÀmpar för att fÄ tillgÄng till pÄlitlig hÀlsoinformation. "Det Àr dÀrför det Àr sÄ viktigt att Google leder mÀnniskor till robust, forskad hÀlsoinformation."
AI-översikter fortsÀtter att dyka upp för andra exempel som The Guardian ursprungligen framhÀvde för Google. Dessa inkluderar sammanfattningar om cancer och psykisk hÀlsa som experter har kallat "helt felaktiga" och "riktigt farliga".
NÀr de tillfrÄgades om varför dessa AI-översikter inte hade tagits bort, uppgav Google att de lÀnkar till vÀlkÀnda och ansedda kÀllor och rÄder anvÀndare nÀr det Àr viktigt att söka expertrÄd.
En talesperson sa: "VÄrt interna team av kliniker granskade exemplen som delades med oss och fann att informationen i mÄnga fall inte var felaktig och stöddes av högkvalitativa webbplatser."
Victor Tangermann, seniorredaktör pÄ Futurism, sa att The Guardians undersökning visar att Google fortfarande har arbete kvar "för att sÀkerstÀlla att dess AI-verktyg inte sprider farlig hÀlsoinformation."
Google uppgav att AI-översikter endast visas för frÄgor dÀr de har hög tilltro till svarens kvalitet. Företaget tillade att de stÀndigt mÀter och granskar kvaliteten pÄ sina sammanfattningar över mÄnga informationskategorier.
I en artikel för Search Engine Journal noterade seniorförfattaren Matt Southern: "AI-översikter visas ovanför rankade sökresultat. NÀr Àmnet Àr hÀlsa har misstag större betydelse."
Vanliga frÄgor
SjÀlvklart! HÀr Àr en lista med vanliga frÄgor om Googles borttagning av AI-genererade söksammanfattningar som flaggats som farliga.
NybörjarfrÄgor
1. Vad hÀnde med Googles AI-söksammanfattningar?
Google tog nyligen bort nÄgra av de AI-genererade svaren i sina sökresultat efter att anvÀndare delat exempel dÀr rÄden var felaktiga och potentiellt skadliga, sÀrskilt för hÀlsofrÄgor.
2. Vad Àr en AI-översikt i Google Sök?
Det Àr en ny funktion dÀr Google anvÀnder sin Gemini AI för att generera en koncis sammanfattning högst upp i sökresultaten, och hÀmtar information frÄn webbplatser sÄ att du inte behöver klicka pÄ flera lÀnkar.
3. Vilken typ av farliga svar gavs?
NÄgra vitt delade exempel inkluderade AI som föreslog att anvÀndare skulle tillsÀtta lim i pizzasÄs för att den skulle bli klibbigare eller att Àta stenar Àr fördelaktigt. För hÀlsa gav den felaktiga rÄd, som hur mÄnga stenar man ska Àta per dag, vilket uppenbarligen Àr osÀkert.
4. Varför gav AI sÄ bisarra svar?
AI-modeller kan ibland missförstÄ lÄgkvalitativ, satirisk eller skÀmtsam innehÄll frÄn webben som faktamÀssig information. De har ingen verklig vÀrldsförstÄelse eller sunt förnuft för att veta att rÄden Àr farliga.
5. Har Google löst problemet?
Google har tagit bort de specifika felaktiga AI-översikterna som rapporterades och sÀger att de gör tekniska förbÀttringar för att förhindra den hÀr typen av fel. Men kÀrnutmaningen med AI-hallucinationer Àr ett pÄgÄende problem.
Avancerade och praktiska frÄgor
6. Vad betyder detta för framtiden för AI i sökning?
Det belyser ett stort hinder för AI-drivna sökningar: att balansera hastighet och bekvÀmlighet med noggrannhet och sÀkerhet. Den hÀr incidenten kommer sannolikt att sakta ner den fulla utrullningen och tvinga fram mer mÀnsklig tillsyn, striktare skyddsrÀcken och bÀttre kÀllverifiering.
7. Hur kan jag veta om en AI-översikt Àr tillförlitlig?
*Kolla kĂ€llorna:* Klicka pĂ„ den lilla pilen bredvid sammanfattningen för att se vilka webbplatser informationen hĂ€mtades frĂ„n. Ăr de ansedda?
*AnvÀnd sunt förnuft:* Om ett svar verkar konstigt, chockerande eller för enkelt för ett komplext Àmne, Àr det sannolikt det.
*Stanna inte vid sammanfattningen:* Konsultera alltid de lÀnkade kÀllorna eller gör ytterligare research, sÀrskilt för hÀlsa-, ekonomi- eller juridikinformation.
8. Kan jag stÀnga av AI-översikter i mina sökresultat?
För nÀrvarande finns det ingen universell av/pÄ-knapp.