Google ha rimosso alcuni dei suoi riassunti sulla salute generati dall'intelligenza artificiale dopo che un'indagine del Guardian ha rilevato che informazioni false e fuorvianti mettevano a rischio le persone.
L'azienda descrive le sue "Panoramiche AI" – che utilizzano l'IA generativa per fornire rapidi riassunti su un argomento o una domanda – come "utili" e "affidabili". Tuttavia, alcuni di questi riassunti, che compaiono in cima ai risultati di ricerca, hanno fornito informazioni sanitarie inaccurate che potrebbero danneggiare gli utenti.
In un caso definito dagli esperti "pericoloso" e "allarmante", Google ha fornito informazioni errate sui test chiave della funzionalità epatica. Ciò potrebbe portare persone con gravi malattie epatiche a credere erroneamente di essere in salute. Cercando "qual è l'intervallo normale per gli esami del sangue del fegato", il Guardian ha scoperto che Google presentava un elenco di numeri con scarso contesto e senza considerare fattori come nazionalità, sesso, etnia o età.
Gli esperti hanno avvertito che ciò che la Panoramica AI di Google etichettava come normale poteva differire drasticamente dagli standard medici effettivi. Ciò potrebbe indurre pazienti gravemente malati a ritenere che i loro risultati fossero nella norma e a saltare importanti visite di controllo.
A seguito dell'indagine, Google ha rimosso le Panoramiche AI per i termini di ricerca "qual è l'intervallo normale per gli esami del sangue del fegato" e "qual è l'intervallo normale per i test di funzionalità epatica".
Un portavoce di Google ha dichiarato: "Non commentiamo sulle singole rimozioni all'interno di Search. Nei casi in cui le Panoramiche AI mancano di contesto, lavoriamo per apportare miglioramenti generali e agiamo anche in base alle nostre politiche quando appropriato".
Vanessa Hebditch, direttrice delle comunicazioni e delle politiche della British Liver Trust, ha accolto con favore la rimozione ma ha espresso preoccupazione persistente. "Questa è un'ottima notizia e siamo lieti di vedere la rimozione delle Panoramiche AI di Google in questi casi", ha affermato. "Tuttavia, se la domanda viene posta in modo diverso, potrebbe ancora apparire una Panoramica AI potenzialmente fuorviante, e rimaniamo preoccupati che altre informazioni sanitarie prodotte dall'IA possano essere inaccurate e confuse".
Il Guardian ha scoperto che anche lievi variazioni della ricerca originale – come "intervallo di riferimento lft" o "intervallo di riferimento test lft" – attivavano ancora le Panoramiche AI. Hebditch ha definito ciò preoccupante. "Un test di funzionalità epatica è un insieme di diversi esami del sangue. Comprendere i risultati implica molto più che confrontare una serie di numeri", ha spiegato. "Le Panoramiche AI presentano un elenco in grassetto, rendendo facile per i lettori trascurare che questi numeri potrebbero non essere nemmeno rilevanti per il loro test. Inoltre, non avvertono che qualcuno può avere risultati normali anche con una grave malattia epatica, richiedendo ulteriori cure. Questa falsa rassicurazione potrebbe essere molto dannosa".
Google, che detiene una quota del 91% del mercato globale dei motori di ricerca, ha dichiarato di essere in fase di revisione dei nuovi esempi forniti dal Guardian.
Hebditch ha aggiunto: "La nostra preoccupazione maggiore è che questo affronta un singolo risultato di ricerca, e Google può semplicemente disattivare la Panoramica AI per quella query, ma non affronta il problema più ampio delle Panoramiche AI per le informazioni sanitarie".
Sue Farrington, presidente del Patient Information Forum, ha anch'essa accolto con favore la rimozione ma ha condiviso preoccupazioni simili. "Questo è un buon risultato, ma è solo il primo passo per mantenere la fiducia nei risultati di ricerca di Google relativi alla salute. Ci sono ancora troppi esempi di Panoramiche AI di Google che forniscono alle persone informazioni sanitarie inaccurate".
Farrington ha osservato che milioni di adulti in tutto il mondo hanno già difficoltà ad accedere a informazioni sanitarie affidabili. "Ecco perché è così importante che Google indirizzi le persone verso informazioni sanitarie solide e basate sulla ricerca".
Le Panoramiche AI continuano a comparire per altri esempi originariamente segnalati dal Guardian a Google. Questi includono riassunti su cancro e salute mentale che gli esperti hanno definito "completamente sbagliati" e "davvero pericolosi".
Interrogata sul motivo per cui queste Panoramiche AI non erano state rimosse, Google ha dichiarato che si collegano a fonti note e affidabili e consigliano agli utenti quando è importante cercare il parere di un esperto.
Un portavoce ha affermato: "Il nostro team interno di clinici ha esaminato gli esempi condivisi con noi e ha riscontrato che in molti casi le informazioni non erano inaccurate ed erano supportate da siti web di alta qualità".
Victor Tangermann, redattore capo di Futurism, ha dichiarato che l'indagine del Guardian mostra che Google ha ancora del lavoro da fare "per garantire che il suo strumento di IA non diffonda pericolose disinformazioni sanitarie".
Google ha dichiarato che le Panoramiche AI compaiono solo per query in cui ha un'elevata fiducia nella qualità delle risposte. L'azienda ha aggiunto che misura e rivede costantemente la qualità dei suoi riassunti in molte categorie di informazioni.
In un articolo per Search Engine Journal, il senior writer Matt Southern ha osservato: "Le Panoramiche AI compaiono sopra i risultati di ricerca classificati. Quando l'argomento è la salute, gli errori hanno un peso maggiore".
Domande Frequenti
Ecco un elenco di FAQ sulla rimozione da parte di Google dei riassunti di ricerca generati dall'IA che sono stati segnalati come pericolosi.
Domande di Livello Base
1. Cosa è successo con i riassunti di ricerca AI di Google?
Google ha recentemente rimosso alcune delle risposte generate dall'IA nei suoi risultati di ricerca dopo che gli utenti hanno condiviso esempi in cui i consigli erano errati e potenzialmente dannosi, specialmente per domande relative alla salute.
2. Cos'è una Panoramica AI nella Ricerca Google?
È una nuova funzionalità in cui Google utilizza la sua IA Gemini per generare una risposta riassuntiva concisa in cima ai risultati di ricerca, estraendo informazioni da siti web in modo che non si debba cliccare su più link.
3. Che tipo di risposte pericolose sono state fornite?
Alcuni esempi ampiamente condivisi includevano l'IA che suggeriva agli utenti di aggiungere colla alla salsa di pizza per renderla più appiccicosa o che mangiare rocce fosse benefico. Per la salute, ha dato consigli errati come quanti sassi mangiare al giorno, il che è ovviamente pericoloso.
4. Perché l'IA ha dato risposte così bizzarre?
I modelli di IA a volte possono interpretare erroneamente contenuti web di bassa qualità, satirici o scherzosi come informazioni fattuali. Non hanno una comprensione del mondo reale o il buon senso per sapere che il consiglio è pericoloso.
5. Google ha risolto il problema?
Google ha rimosso le specifiche Panoramiche AI errate che sono state segnalate e afferma di stare apportando miglioramenti tecnici per prevenire questo tipo di errori. Tuttavia, la sfida fondamentale dell'allucinazione dell'IA è un problema continuo.
Domande Avanzate e Pratiche
6. Cosa significa questo per il futuro dell'IA nella ricerca?
Evidenzia un ostacolo importante per la ricerca basata sull'IA: bilanciare velocità e convenienza con accuratezza e sicurezza. Questo incidente probabilmente rallenterà il lancio completo e imporrà una maggiore supervisione umana, controlli più rigorosi e una migliore verifica delle fonti.
7. Come posso capire se una Panoramica AI è affidabile?
Controlla le fonti: clicca la piccola freccia accanto al riassunto per vedere da quali siti web ha estratto le informazioni. Sono affidabili?
Usa il buon senso: se una risposta sembra strana, scioccante o troppo semplice per un argomento complesso, probabilmente lo è.
Non fermarti al riassunto: consulta sempre le fonti collegate o fai ulteriori ricerche, specialmente per informazioni su salute, finanza o legge.
8. Posso disattivare le Panoramiche AI nei miei risultati di ricerca?
Attualmente non esiste un interruttore universale per attivarle/disattivarle.