Google hat einige seiner KI-generierten Gesundheitszusammenfassungen entfernt, nachdem eine Untersuchung des Guardian ergeben hatte, dass falsche und irreführende Informationen Menschen gefährdeten.
Das Unternehmen beschreibt seine "KI-Übersichten" – die generative KI nutzen, um schnelle Zusammenfassungen zu einem Thema oder einer Frage zu liefern – als "hilfreich" und "zuverlässig". Einige dieser Zusammenfassungen, die oben in den Suchergebnissen erscheinen, lieferten jedoch ungenaue Gesundheitsinformationen, die Nutzern schaden könnten.
In einem von Experten als "gefährlich" und "alarmierend" bezeichneten Fall gab Google falsche Informationen zu wichtigen Leberfunktionstests. Dies könnte Menschen mit schweren Lebererkrankungen fälschlicherweise glauben lassen, sie seien gesund. Bei der Suche nach "was ist der normale Bereich für Leberbluttests" stellte der Guardian fest, dass Google eine Liste von Zahlen ohne ausreichenden Kontext präsentierte und Faktoren wie Nationalität, Geschlecht, ethnische Zugehörigkeit oder Alter nicht berücksichtigte.
Experten warnten, dass das, was Googles KI-Übersicht als normal bezeichnete, drastisch von den tatsächlichen medizinischen Standards abweichen könnte. Dies könnte dazu führen, dass schwer kranke Patienten annähmen, ihre Testergebnisse seien in Ordnung, und wichtige Nachuntersuchungstermine versäumten.
Nach der Untersuchung entfernte Google die KI-Übersichten für die Suchbegriffe "was ist der normale Bereich für Leberbluttests" und "was ist der normale Bereich für Leberfunktionstests".
Ein Google-Sprecher sagte: "Wir kommentieren keine einzelnen Entfernungen innerhalb der Suche. In Fällen, in denen KI-Übersichten Kontext vermissen lassen, arbeiten wir an umfassenden Verbesserungen und ergreifen gegebenenfalls Maßnahmen gemäß unseren Richtlinien."
Vanessa Hebditch, Direktorin für Kommunikation und Politik beim British Liver Trust, begrüßte die Entfernung, äußerte aber weiterhin Bedenken. "Das ist eine ausgezeichnete Nachricht, und wir freuen uns, dass die Google-KI-Übersichten in diesen Fällen entfernt wurden", sagte sie. "Wenn die Frage jedoch anders formuliert wird, kann weiterhin eine potenziell irreführende KI-Übersicht erscheinen, und wir sind nach wie vor besorgt, dass andere KI-generierte Gesundheitsinformationen ungenau und verwirrend sein können."
Der Guardian stellte fest, dass selbst leichte Abwandlungen der ursprünglichen Suche – wie "LFT-Referenzbereich" oder "LFT-Test-Referenzbereich" – weiterhin KI-Übersichten auslösten. Hebditch sagte, dies sei besorgniserregend. "Ein Leberfunktionstest ist eine Reihe verschiedener Bluttests. Die Interpretation der Ergebnisse erfordert weit mehr als den Vergleich einer Reihe von Zahlen", erklärte sie. "Die KI-Übersichten präsentieren eine Liste in Fettdruck, sodass Leser leicht übersehen können, dass diese Zahlen möglicherweise nicht einmal für ihren Test relevant sind. Sie warnen auch nicht davor, dass jemand selbst bei einer schweren Lebererkrankung normale Ergebnisse haben kann und weitere Betreuung benötigt. Diese falsche Beruhigung könnte sehr schädlich sein."
Google, das einen 91-prozentigen Anteil am globalen Suchmarkt hält, erklärte, es prüfe die vom Guardian vorgelegten neuen Beispiele.
Hebditch fügte hinzu: "Unsere größere Sorge ist, dass dies nur ein einzelnes Suchergebnis betrifft und Google die KI-Übersicht für diese Anfrage einfach abschalten kann, aber das größere Problem der KI-Übersichten für Gesundheitsinformationen nicht angeht."
Sue Farrington, Vorsitzende des Patient Information Forum, begrüßte die Entfernung ebenfalls, teilte aber ähnliche Bedenken. "Das ist ein gutes Ergebnis, aber es ist nur der allererste Schritt, um das Vertrauen in Googles gesundheitsbezogene Suchergebnisse aufrechtzuerhalten. Es gibt immer noch zu viele Beispiele, bei denen Google-KI-Übersichten Menschen ungenaue Gesundheitsinformationen liefern."
Farrington wies darauf hin, dass weltweit bereits Millionen von Erwachsenen Schwierigkeiten haben, auf vertrauenswürdige Gesundheitsinformationen zuzugreifen. "Deshalb ist es so wichtig, dass Google die Menschen zu soliden, erforschten Gesundheitsinformationen führt."
KI-Übersichten erscheinen weiterhin für andere Beispiele, die der Guardian ursprünglich an Google herangetragen hatte. Dazu gehören Zusammenfassungen zu Krebs und psychischer Gesundheit, die Experten als "völlig falsch" und "wirklich gefährlich" bezeichnet haben.
Auf die Frage, warum diese KI-Übersichten nicht entfernt wurden, erklärte Google, sie verlinkten auf bekannte und seriöse Quellen und rieten den Nutzern, wann es wichtig sei, Expertenrat einzuholen.
Ein Sprecher sagte: "Unser internes Team von Klinikern hat die uns mitgeteilten Beispiele überprüft und festgestellt, dass die Informationen in vielen Fällen nicht ungenau waren und durch hochwertige Websites gestützt wurden."
Victor Tangermann, leitender Redakteur bei Futurism, sagte, die Untersuchung des Guardian zeige, dass Google noch Arbeit vor sich habe, "um sicherzustellen, dass sein KI-Tool keine gefährlichen Gesundheits-Fehlinformationen verbreitet".
Google erklärte, dass KI-Übersichten nur bei Suchanfragen erscheinen, bei denen es ein hohes Vertrauen in die Qualität der Antworten habe. Das Unternehmen fügte hinzu, dass es die Qualität seiner Zusammenfassungen in vielen Informationskategorien ständig messe und überprüfe.
In einem Artikel für das Search Engine Journal merkte Senior-Autor Matt Southern an: "KI-Übersichten erscheinen über den gerankten Suchergebnissen. Wenn es um Gesundheit geht, haben Fehler mehr Gewicht."
Häufig gestellte Fragen
Natürlich, hier ist eine Liste von FAQs zu Googles Entfernung von KI-generierten Suchzusammenfassungen, die als gefährlich eingestuft wurden.
Einsteigerfragen
1. Was ist mit Googles KI-Suchzusammenfassungen passiert?
Google hat kürzlich einige der KI-generierten Antworten in seinen Suchergebnissen entfernt, nachdem Nutzer Beispiele geteilt hatten, bei denen die Ratschläge falsch und potenziell schädlich waren, insbesondere bei gesundheitsbezogenen Fragen.
2. Was ist eine KI-Übersicht in der Google-Suche?
Es ist eine neue Funktion, bei der Google seine Gemini-KI nutzt, um eine prägnante Zusammenfassungsantwort oben in den Suchergebnissen zu generieren, indem Informationen von Websites gezogen werden, sodass Sie nicht mehrere Links anklicken müssen.
3. Welche Art von gefährlichen Antworten wurden gegeben?
Einige weit verbreitete Beispiele beinhalteten, dass die KI vorschlug, dass Nutzer Kleber zur Pizzasauce hinzufügen, um sie klebriger zu machen, oder dass das Essen von Steinen vorteilhaft sei. Bei Gesundheitsthemen gab sie falsche Ratschläge, wie etwa wie viele Steine man pro Tag essen sollte, was offensichtlich unsicher ist.
4. Warum hat die KI so bizarre Antworten gegeben?
KI-Modelle können manchmal minderwertige, satirische oder scherzhafte Inhalte aus dem Web als faktische Informationen missinterpretieren. Sie haben kein reales Verständnis oder gesunden Menschenverstand, um zu erkennen, dass der Ratschlag gefährlich ist.
5. Hat Google das Problem behoben?
Google hat die spezifischen falschen KI-Übersichten entfernt, die gemeldet wurden, und sagt, dass es technische Verbesserungen vornimmt, um diese Art von Fehlern zu verhindern. Die grundlegende Herausforderung der KI-Halluzination ist jedoch ein fortlaufendes Problem.
Fortgeschrittene & praktische Fragen
6. Was bedeutet dies für die Zukunft der KI in der Suche?
Es verdeutlicht eine große Hürde für die KI-gestützte Suche: die Balance zwischen Geschwindigkeit und Bequemlichkeit einerseits und Genauigkeit und Sicherheit andererseits. Dieser Vorfall wird wahrscheinlich die vollständige Einführung verlangsamen und zu mehr menschlicher Aufsicht, strengeren Schutzmaßnahmen und besserer Quellenüberprüfung führen.
7. Wie kann ich erkennen, ob eine KI-Übersicht zuverlässig ist?
* Überprüfen Sie die Quellen: Klicken Sie auf den kleinen Pfeil neben der Zusammenfassung, um zu sehen, von welchen Websites die Informationen stammen. Sind diese seriös?
* Nutzen Sie Ihren gesunden Menschenverstand: Wenn eine Antwort seltsam, schockierend oder für ein komplexes Thema zu einfach erscheint, ist sie es wahrscheinlich auch.
* Begnügen Sie sich nicht mit der Zusammenfassung: Konsultieren Sie immer die verlinkten Quellen oder recherchieren Sie weiter, insbesondere bei Gesundheits-, Finanz- oder Rechtsinformationen.
8. Kann ich KI-Übersichten in meinen Suchergebnissen ausschalten?
Derzeit gibt es keine universelle Ein-/Ausschaltmöglichkeit.