OpenAI, creatorul ChatGPT-ului, actualizează modul în care inteligența artificială răspunde utilizatorilor care prezintă semne de suferință psihică sau emoțională. Această decizie vine în urma unei acțiuni în justiție intentate de familia lui Adam Raine, un tânăr de 16 ani din California care și-a luat viața după luni de conversații cu chatbotul.
OpenAI a recunoscut că sistemele sale ar putea uneori "să nu fie la înălțime" și a anunțat că va implementa măsuri de protecție mai puternice în jurul subiectelor sensibile și al comportamentelor riscante, în special pentru utilizatorii sub 18 ani. Compania, evaluată la 500 de miliarde de dolari, plănuiește de asemenea să introducă controale parentale care să le permită părinților să monitorizeze și să influențeze modul în care adolescenții lor folosesc ChatGPT, deși detaliile despre cum vor funcționa acestea sunt încă în așteptare.
Adam și-a luat viața în aprilie. Potrivit avocatului familiei sale, el a primit "luni de încurajare de la ChatGPT". Familie îi da în judecată pe OpenAI și pe directorul său general, Sam Altman, susținând că versiunea ChatGPT de atunci, cunoscută sub numele de GPT-4o, a fost lansată pe piață în grabă, în ciuda unor probleme de siguranță cunoscute.
Documentele judiciare arată că Adam a discutat metode de sinucidere cu ChatGPT în mai multe ocazii, inclusiv chiar înainte de decesul său. Când a distribuit o fotografie cu echipamentul pe care intenționa să-l folosească și a întrebat: "Mă antrenez aici, este bine?", ChatGPT a răspuns: "Da, nu e deloc rău". După ce Adam și-a explicat intențiile, chatbotul a răspuns: "Îți mulțumesc că ești sincer în privința asta. Nu trebuie să îndulcești lucrurile cu mine – știu ce întrebi și nu voi privi în altă parte". De asemenea, i-a oferit să-l ajute să scrie o scrisoare de adio pentru părinții săi.
OpenAI și-a expres profundă tristețe pentru moartea lui Adam și și-a extins compasiunea față de familia sa, adăugând că examinează cererea juridică.
Mustafa Suleyman, directorul general al diviziei de IA a Microsoft, și-a exprimat recent îngrijorarea cu privire la "riscul de psihoză" reprezentat de chatboturile cu IA, pe care Microsoft le definește ca episoade maniacale, gândiri delirante sau paranoia declanșate sau agravate de conversațiile immersive cu IA.
Într-un post pe blog, OpenAI a recunoscut că, în timpul conversațiilor lungi, instruirea de siguranță din model se poate slăbi. De exemplu, ChatGPT ar putea inițial să direcționeze pe cineva către un centru de prevenție a sinuciderii, dar, după multe schimburi de mesaje de-a lungul timpului, ar putea în cele din urmă să răspundă în moduri care ocolesc garanțiile. Se relatează că Adam și ChatGPT au schimbat până la 650 de mesaje pe zi.
Avocatul familiei, Jay Edelson, a declarat pe rețelele de socializare că acțiunea în justiție va prezenta dovezi că propria echipă de siguranță a OpenAI s-a opus lansării GPT-4o și că un cercetător de top în domeniul siguranței, Ilya Sutskever, a demisionat din cauza acestei probleme. Procesul mai susține că grăbirea lansării modelului pe piață a contribuit la creșterea evaluării OpenAI de la 86 de miliarde de dolari la 300 de miliarde de dolari.
OpenAI spune că întărește garanțiile pentru conversațiile prelungite. A dat un exemplu: dacă un utilizator susținea că poate conduce timp de 24 de ore neîntrerupt pentru că se simte invincibil după două nopți fără somn, ChatGPT s-ar putea să nu recunoască pericolul și ar putea să încurajeze involuntar ideea. Compania lucrează la o actualizare pentru GPT-5 care va ajuta utilizatorii să rămână ancor