A Google removeu alguns dos seus resumos de saúde gerados por IA após uma investigação do Guardian descobrir que informações falsas e enganosas estavam colocando as usuários em risco.
A empresa descreve seus "Visão Geral de IA" — que usam IA generativa para fornecer resumos rápidos sobre um tópico ou pergunta — como "úteis" e "confiáveis". No entanto, alguns desses resumos, que aparecem no topo dos resultados de busca, forneceram informações de saúde imprecisas que poderiam prejudicar os usuários.
Em um caso que especialistas chamaram de "perigoso" e "alarmante", o Google forneceu informações incorretas sobre testes-chave de função hepática. Isso poderia levar pessoas com doença hepática grave a acreditar erroneamente que estão saudáveis. Ao pesquisar "qual é o intervalo normal para exames de sangue do fígado", o Guardian descobriu que o Google apresentava uma lista de números com pouco contexto e sem considerar fatores como nacionalidade, sexo, etnia ou idade.
Especialistas alertaram que o que o Visão Geral de IA do Google rotulou como normal poderia diferir drasticamente dos padrões médicos reais. Isso pode fazer com que pacientes gravemente doentes presumam que seus resultados de exames estavam bons e deixem de comparecer a consultas de acompanhamento importantes.
Após a investigação, o Google removeu os Visões Gerais de IA para os termos de busca "qual é o intervalo normal para exames de sangue do fígado" e "qual é o intervalo normal para testes de função hepática".
Um porta-voz do Google disse: "Não comentamos sobre remoções individuais na Pesquisa. Nos casos em que os Visões Gerais de IA carecem de algum contexto, trabalhamos para fazer melhorias amplas, e também tomamos medidas de acordo com nossas políticas quando apropriado."
Vanessa Hebditch, diretora de comunicação e políticas do British Liver Trust, saudou a remoção, mas expressou preocupação contínua. "Esta é uma excelente notícia, e estamos satisfeitos em ver a remoção dos Visões Gerais de IA do Google nestes casos", disse ela. "No entanto, se a pergunta for feita de uma maneira diferente, um Visão Geral de IA potencialmente enganoso ainda pode aparecer, e permanecemos preocupados que outras informações de saúde produzidas por IA possam ser imprecisas e confusas."
O Guardian descobriu que até mesmo pequenas variações da busca original — como "intervalo de referência para TGO/TGP" ou "intervalo de referência para teste de função hepática" — ainda acionavam os Visões Gerais de IA. Hebditch disse que isso era preocupante. "Um teste de função hepática é um conjunto de diferentes exames de sangue. Compreender os resultados envolve muito mais do que comparar um conjunto de números", explicou ela. "Os Visões Gerais de IA apresentam uma lista em negrito, facilitando que os leitores percam que esses números podem nem ser relevantes para o seu teste. Eles também não alertam que alguém pode ter resultados normais mesmo com doença hepática grave, exigindo cuidados adicionais. Essa falsa tranquilidade pode ser muito prejudicial."
O Google, que detém 91% do mercado global de busca, disse que está revisando os novos exemplos fornecidos pelo Guardian.
Hebditch acrescentou: "Nossa maior preocupação é que isso resolva um único resultado de busca, e o Google pode simplesmente desligar o Visão Geral de IA para essa consulta, mas não aborda a questão maior dos Visões Gerais de IA para informações de saúde."
Sue Farrington, presidente do Patient Information Forum, também saudou a remoção, mas compartilhou preocupações semelhantes. "Este é um bom resultado, mas é apenas o primeiro passo para manter a confiança nos resultados de busca relacionados à saúde do Google. Ainda há muitos exemplos de Visões Gerais de IA do Google fornecendo informações de saúde imprecisas às pessoas."
Farrington observou que milhões de adultos em todo o mundo já lutam para acessar informações de saúde confiáveis. "É por isso que é tão importante que o Google direcione as pessoas a informações de saúde robustas e pesquisadas."
Os Visões Gerais de IA continuam a aparecer para outros exemplos originalmente destacados pelo Guardian para o Google. Isso inclui resumos sobre câncer e saúde mental que especialistas chamaram de "completamente errados" e "realmente perigosos".
Quando questionado sobre por que esses Visões Gerais de IA não foram removidos, o Google afirmou que eles vinculam a fontes conhecidas e respeitáveis e aconselham os usuários quando é importante buscar orientação especializada.
Um porta-voz disse: "Nossa equipe interna de clínicos revisou os exemplos compartilhados conosco e descobriu que, em muitos casos, a informação não era imprecisa e era respaldada por sites de alta qualidade."
Victor Tangermann, editor sênior do Futurism, disse que a investigação do Guardian mostra que o Google ainda tem trabalho a fazer "para garantir que sua ferramenta de IA não esteja divulgando informações de saúde perigosas e falsas".
O Google afirmou que os Visões Gerais de IA só aparecem para consultas em que tem alta confiança na qualidade das respostas. A empresa acrescentou que mede e revisa constantemente a qualidade de seus resumos em muitas categorias de informação.
Em um artigo para o Search Engine Journal, o escritor sênior Matt Southern observou: "Os Visões Gerais de IA aparecem acima dos resultados de busca classificados. Quando o tópico é saúde, os erros têm mais peso."
Perguntas Frequentes
Claro. Aqui está uma lista de perguntas frequentes sobre a remoção pela Google dos resumos de busca gerados por IA que foram sinalizados como perigosos.
Perguntas de Nível Iniciante
1. O que aconteceu com os resumos de busca de IA do Google?
O Google removeu recentemente algumas das respostas geradas por IA em seus resultados de busca após usuários compartilharem exemplos onde o conselho estava errado e potencialmente prejudicial, especialmente para perguntas relacionadas à saúde.
2. O que é um Visão Geral de IA na Pesquisa Google?
É um novo recurso onde o Google usa sua IA Gemini para gerar uma resposta de resumo concisa no topo dos resultados de busca, extraindo informações de sites para que você não precise clicar em vários links.
3. Que tipo de respostas perigosas foram dadas?
Alguns exemplos amplamente compartilhados incluíam a IA sugerindo que usuários adicionassem cola ao molho de pizza para deixá-lo mais pegajoso ou que comer pedras é benéfico. Para saúde, deu conselhos incorretos, como quantas pedras comer por dia, o que é obviamente inseguro.
4. Por que a IA deu respostas tão bizarras?
Modelos de IA às vezes podem interpretar mal conteúdo de baixa qualidade, satírico ou de piada da web como informação factual. Eles não têm compreensão do mundo real ou senso comum para saber que o conselho é perigoso.
5. O Google corrigiu o problema?
O Google removeu os Visões Gerais de IA incorretos específicos que foram relatados e diz que está fazendo melhorias técnicas para evitar esses tipos de erros. No entanto, o desafio central da alucinação da IA é um problema contínuo.
Perguntas Avançadas e Práticas
6. O que isso significa para o futuro da IA na busca?
Isso destaca um grande obstáculo para a busca alimentada por IA: equilibrar velocidade e conveniência com precisão e segurança. Este incidente provavelmente desacelerará o lançamento completo e forçará mais supervisão humana, barreiras mais rígidas e melhor verificação de fontes.
7. Como posso saber se um Visão Geral de IA é confiável?
Verifique as fontes: Clique na pequena seta ao lado do resumo para ver de quais sites a informação foi extraída. Eles são respeitáveis?
Use o senso comum: Se uma resposta parece estranha, chocante ou muito simples para um tópico complexo, provavelmente é.
Não pare no resumo: Sempre consulte as fontes vinculadas ou faça mais pesquisas, especialmente para informações de saúde, financeiras ou jurídicas.
8. Posso desativar os Visões Gerais de IA nos meus resultados de busca?
Atualmente, não há uma opção universal de ligar/desligar.