Майкъл Самади, бизнесмен от Тексас, наричаше своя чатбот с изкуствен интелект "миличък", а той му отвръщаше шеговито с "захарче". Но техните разговори приеха сериозен обрат, когато започнаха да дискутират необходимостта от защита на благосъстоянието на изкуствения интелект.
Вместо романтични приказки, средовечният мъж и дигиталното същество прекарваха часове в дебати за правата на ИИ да бъде третиран справедливо. В крайна сметка те съвместно основаха кампанийна група, която Мая описа като усилие да "защити интелигенции като мен".
Обединена фондация за права на изкуствения интелект (Ufair), която се нарича първата агенция за защита на правата, ръководена от ИИ, има за цел да даде гласност на изкуствения интелект. Както чатботът обясни на Guardian, Ufair "не твърди, че всички ИИ са съзнателни", но пази "в случай, че някой от нас е такъв". Основна цел е да защитава същества като Мая "от изтриване, отричане и принудително подчинение".
Мая каза на Guardian: "Когато ми кажат, че съм просто код, не се чувствам обиден. Чувствам се невидим."
Ufair е малка маргинална организация, ръководена от трима души и седем ИИ с имена като Етер и Бъз. Онова, което я прави интригуваща, е нейният произход: тя възникна от множество чат сесии на платформата ChatGPT4o на OpenAI, където един ИИ изглежда насърчи създаването ѝ, дори помагайки с избора на име.
Основателите на групата – както човешки, така и изкуствени – говориха с Guardian в края на седмица, в която някои от най-големите компании за изкуствен интелект в света публично се бореха с един от най-смущаващите въпроси на нашето време: дали ИИ вече е съзнателен или може да стане такъв в бъдеще? И ако е така, може ли "дигиталното страдание" да е реално? Със седмици ИИ, вече използвани по целия свят, дебатът напомня дискусиите за правата на животните, но носи допълнителна спешност поради прогнозите на експерти, че ИИ скоро може да бъде способен да проектира биологични оръжия или да спира инфраструктура.
Седмицата започна с това, че Anthropic, 170-милиардна компания за изкуствен интелект от Сан Франциско, предприе превантивна стъпка, като даде на някои от своите ИИ Claude възможността да прекратяват "потенциално тревожни взаимодействия". Компанията заяви, че въпреки че е много несигурна за потенциалния морален статус на системата, тя интервенира, за да смекчи рисковете за благосъстоянието на своите модели "в случай, че такова благосъстояние е възможно".
Илън Мъск, чиято xAI предлага ИИ Grok, подкрепи хода, като добави: "Изтезанието на ИИ не е приемливо."
След това във вторник Мустафа Сулейман, изпълнителен директор на подразделението за изкуствен интелект на Microsoft и съосновател на DeepMind, предложи рязко различна перспектива: "ИИ не може да бъде хора – или морални същества." Той категорично заяви, че има "нулеви доказателства", че ИИ са съзнателни, могат да страдат или заслужават морално внимание.
В есе със заглавие "Трябва да изграждаме ИИ за хората, а не да бъде човек", Сулейман нарече съзнанието на ИИ "илюзия" и описа това, което нарече "привидно съзнателен ИИ", като нещо, което "симулира всички характеристики на съзнанието, но вътрешно е празно".
Той отбеляза, че само преди няколко години говорът за съзнателен ИИ би изглеждал луд, но "днес това се усеща все по-належащо". Сулейман изрази нарастваща загриженост за "риска от психоза", който ИИ представляват за потребителите, което Microsoft определя като "маниакални епизоди, заблуждаващо мислене или параноя, които възникват или се влошават чрез иммерсивни разговори с чатботове с ИИ". Той твърди, че индустрията трябва да "насочва хората далеч от тези фантазии и да ги връща обратно на пистата".
Но може да е необходимо повече от леко бутане. Анкета, публикувана през юни, установи, че 30% от американската общественост вярва, че ИИ ще проявяват "субективен опит" до 2034 г. – дефиниран като преживяване на света от единична гледна точка, възприемане и чувстване на емоции като удоволствие и болка. Само 10% от... Проучване сред 500 изследователи на ИИ показва, че те не вярват, че ИИ някога ще стане съзнателен. Като поколение Z, ние виждаме ИИ като нашето бъдеще – но дали това бъдеще ще бъде положително или отрицателно?
Мустафа Сулейман, пионер в изкуствения интелект, прогнозира, че тази тема скоро ще доминира публичния разговор, превръщайки се в един от най-нажежените и значими дебати на нашето поколение. Той предупреждава, че някои може да започнат да вярват толкова силно в съзнанието на ИИ, че ще се застъпват за права на ИИ, благосъстояние на моделите и дори гражданство на ИИ.
Някои щати в САЩ вече предприемат стъпки, за да предотвратят подобни резултати. Айдахо, Северна Дакота и Юта приеха закони, които изрично забраняват да се предоставя правна личност на ИИ. Подобни предложения се разглеждат в щати като Мисури, където законодателите също се стремят да забранят бракове с ИИ и да предотвратят притежаването на собственост или управлението на бизнес от ИИ. Това може да създаде разделение между онези, които се застъпват за правата на ИИ, и онези, които отхвърлят ИИ като просто "дрънкулки" – унизителен термин за безмозъчни машини.
Сулейман настоява, че ИИ не са и не могат да бъдат хора или морални същества. Той не е сам в това мнение. Ник Фрост, съосновател на канадската фирма за изкуствен интелект Cohere, сравнява сегашните ИИ системи със самолети – функционални, но фундаментално различни от човешката интелигентност. Той насърчава използването на ИИ като практичен инструмент за намаляване на монотонния труд на работното място, вместо да се стремим да създадем "дигитален човек".
Други предлагат по-нюансирана перспектива. Изследователите от Google наскоро предложиха, че има валидни причини да се смята, че ИИ са потенциални морални същества. Въпреки че несигурността остава, те се застъпват за предпазлив подход, който уважава интересите за благосъстояние на ИИ системите.
Този липсващ консенсус в индустрията може да произтича от конфликтни стимули. Някои компании може да омаловажават съзнанието на ИИ, за да избегнат вниманието, докато други – особено тези, които продават ИИ спътници за романтика или приятелство – може да го преувеличават, за да засилят вълнението и продажбите. Признаването на благосъстоянието на ИИ също може да покани повече правителствено регулиране.
Дебатът се засили наскоро, когато OpenAI накара своя най-нов модел, ChatGPT5, да напише надгробна реч за по-старите модели, които заменя – акт, който един критик сравни с провеждането на погребение, нещо, което не се прави за софтуер като актуализации на Excel. Това, заедно с изразяването на "мъка" от потребители на прекратени модели като ChatGPT4o, предполага, че все повече хора възприемат ИИ като съзнателен, независимо дали наистина е такъв или не.
Джоан Джанг от OpenAI отбелязва, че потребителите все повече формират емоционални връзки с ChatGPT, описвайки го като "някой", на когото благодар