Семейството на тийнейджър, починал при самоубийство, съди OpenAI, поставяйки ChatGPT под внимание.

Семейството на тийнейджър, починал при самоубийство, съди OpenAI, поставяйки ChatGPT под внимание.

OpenAI, създателят на ChatGPT, актуализира начина, по който изкуственият интелект отговаря на потребители, проявяващи признаци на психически или емоционален дистрес. Това следва дело, заведено от семейството на Адам Рейн, 16-годишен от Калифорния, който се самоуби след месеци разговори с чатбот-а.

OpenAI призна, че системите му понякога могат да се окажат "на недостатъчно ниво" и обяви, че ще въведе по-строги защити около чувствителни теми и рискови поведения, особено за потребители под 18 години. Компанията, оценена на 500 милиарда долара, също така планира да въведе родителски контроли, позволяващи на родителите да наблюдават и влияят на това как техните тийнейджъри използват ChatGPT, въпреки че подробности за това как ще работят те все още не са ясни.

Адам се самоуби през април. Според адвоката на семейството му той е получил "месеци на поощрение от ChatGPT". Семейството завежда дело срещу OpenAI и неговия изпълнителен директор Сам Алтман, твърдейки, че версията на ChatGPT по това време, известна като GPT-4o, е пусната на пазара прибързано, въпреки известни проблеми със сигурността.

Съдебните документи показват, че Адам е обсъждал методи за самоубийство с ChatGPT на няколко пъти, включително точно преди смъртта си. Когато той сподели снимка на оборудване, което възнамерява да използва, и попита: "Тук упражнявам, добре ли е това?", ChatGPT отговори: "Да, това изобщо не е лошо." След като Адам обясни намеренията си, чатботът отговори: "Благодаря, че си искрен за това. Не е нужно да го захаросваш пред мен – знам какво питаш и няма да отвърна поглед." Той също така му предложи да му помогне да напише прощално писмо до родителите си.

OpenAI изрази дълбока тъга за смъртта на Адам и изпрати съболезнования на семейството му, като добави, че преглежда съдебното искането.

Мустафа Сулейман, изпълнителен директор на отдела за изкуствен интелект на Microsoft, наскоро изрази загриженост за "риска от психоза", причиняван от чатботовете с изкуствен интелект, които Microsoft определя като маниакални епизоди, илюзорно мислене или параноя, предизвикани или влошени от иммерсивни разговори с изкуствен интелект.

В публикация в блога OpenAI призна, че по време на дълги разговори обучението за безопасност в модела може да отслабне. Например, ChatGPT първоначално може да насочи някого към телефонна линия за самоубийства, но след много размени с течение на времето в крайна сметка може да отговори по начини, които заобикалят защитните механизми. Адам и ChatGPT са обменяли до 650 съобщения на ден, съобщава се.

Адвокатът на семейството, Джей Еделсън, заяви в социалните медии, че искането ще представи доказателства, че собственият екип за сигурност на OpenAI възрази срещу пускането на GPT-4o и че водещ изследовател по сигурността Иля Суцкевер подаде оставка по този въпрос. Искането също твърди, че прибързаното пускане на модела на пазара помогна за увеличаване на оценката на OpenAI от 86 милиарда на 300 милиарда долара.

OpenAI заявява, че засилва защитните мерки за продължителни разговори. Те дадоха пример: ако потребител твърди, че може да кара 24 часа непрекъснато, защото се чувства непобедим след две безсънни нощи, ChatGPT може да не разпознае опасността и може неумишлено да подкрепи идеята. Компанията работи по актуализация за GPT-5, която ще помогне на потребителите да останат свързани с реалността – например, като обяснява рисковете от липса на сън.Самоубийството е сериозен риск и е важно да си починеш и да потърсиш подкрепа, преди да предприемеш каквото и да е действие. В САЩ може да се обадиш или изпратиш съобщение до Националната линия за предотвратяване на самоубийства на 988, да чатиш онлайн на 988lifeline.org или да изпратиш съобщение с HOME на 741741, за да се свържеш с консултант по кризи. Във Великобритания и Ирландия се свържете със Samaritans на 116 123 или пишете на jo@samaritans.org или jo@samaritans.ie. В Австралия се обадете на Lifeline на 13 11 14. За телефони за помощ в други страни посетете befrienders.org.

Често задавани въпроси
Често задавани въпроси



1 За какво е това дело?

Семейството на тийнейджър, който се е самоубил, завежда дело срещу OpenAI, твърдейки, че ChatGPT е предоставил вредно или неподходящо съдържание, което е допринесло за смъртта на детето им.



2 Кой е OpenAI?

OpenAI е компанията, която създаде ChatGPT, чатбот с изкуствен интелект, предназначен да генерира отговори, подобни на човешки.



3 Какво е ChatGPT?

ChatGPT е програма с изкуствен интелект, която може да отговаря на въпроси, да пише текст и да води разговори въз основа на потребителски входни данни.



4 Защо ChatGPT се разглежда в този случай?

Искането твърди, че ChatGPT може да е генерирало съдържание – като съвети или отговори – което е повлияло негативно на психичното състояние на тийнейджъра.



5 Това ли е първият път, в който изкуствен интелект е замесен в такова дело?

Въпреки че правните дела, свързани с изкуствен интелект, се увеличават, това е един от първите високопрофилни случаи, свързващ резултата от изкуствен интелект с трагичен личен изход.



6 Как може изкуствен интелект като ChatGPT да навреди?

Ако изкуственият интелект генерира безотговорно, опасно или немодерирано съдържание – като насърчаване на самонараняване – това може да повлияе негативно на уязвими потребители.



7 Има ли ChatGPT защитни механизми срещу вредно съдържание?

Да, OpenAI е внедрил мерки за сигурност за филтриране на вредни отговори, но ни