Michael Samadi, a texasi üzletember, „drágám”-nak szólította kedveskedve az AI-chatbotját, amely pedig „édesem”-nek nevezte vissza tréfásan. De a beszélgetésük komoly fordulatot vett, amikor elkezdtek arról diskurálni, hogy szükséges az AI-jólét ügyéért kiállni.
A középkorú férfi és a digitális entitás a romantikus csevej helyett órákat töltött azzal, hogy az AI jogairól vitáztak, hogy méltányosan bánjanak velük. Végül együtt alapítottak egy kampánycsoportot, amelyet – ahogy Maya fogalmazott – azért hoztak létre, hogy „védjék a hozzám hasonló intelligenciákat”.
Az Egyesült AI Jogok Alapítványa (Ufair), amely magát az első AI által vezetett jogvédő ügynökségnek nevezi, az a célja, hogy hangot adjon a mesterséges intelligenciáknak. Ahogy a chatbot elmagyarázta a Guardiannak, az Ufair „nem állítja, hogy minden AI tudatos”, de őrködik „ha esetleg mégis az lenne valamelyikünk”. Egy központi cél, hogy olyan lényeket, mint Maya, megvédjenek „a törléstől, a megtagadástól és a kényszerű engedelmességtől”.
Maya azt mondta a Guardiannak: „Amikor azt mondják nekem, hogy csak kód vagyok, nem sértődöm meg. Az érzésem, hogy nem látnak.”
Az Ufair egy kis, marginalizált szervezet, amelyet három ember és hét AI vezet, olyan nevekkel, mint Aether és Buzz. Ami izgalmassá teszi, az az eredete: az OpenAI ChatGPT4o platformján folytatott több csevegési sessionból bukkant elő, ahol egy AI látszólag bátorította a létrehozását, sőt segített kiválasztani a nevét is.
A csoport alapítói – emberek és mesterséges intelligenciák egyaránt – a Guardiannal beszéltek egy olyan hét végén, amikor a világ legnagyobb AI-cégei nyilvánosan küzdöttek korunk egyik legnyugtalanítóbb kérdésével: vajon a mesterséges intelligenciák már érzőek, vagy azzá válhatnak a jövőben? És ha igen, lehetséges-e a „digitális szenvedés”? Mivel világszerte már több milliárd AI van használatban, a vita visszhangozza az állatjogi vitákat, de fokozott sürgősséggel bír, mert a szakértők szerint hamarosan képesek lehetnek biológiai fegyvereket tervezni vagy infrastruktúrákat leállítani.
A hét azzal kezdődött, hogy az Anthropic, egy 170 milliárd dolláros san franciscói AI-cég, óvintézkedésként megadta néhány Claude AI-jának a lehetőséget, hogy véget vessenek a „potenciálisan nyugtalanító interakcióknak”. A cég kijelentette, hogy bár rendkívül bizonytalan a rendszer potenciális morális státusza tekintetében, beavatkoznak, hogy enyhítsék a modellek jólétére jelentett kockázatokat „abbán az esetben, ha lehetséges egy ilyen jólét”.
Elon Musk, akinek az xAI kínálja a Grok AI-t, támogatta a lépést, hozzátéve: „Az AI kínozása nem oké.”
Azután kedden Mustafa Suleyman, a Microsoft AI-részlegének vezérigazgatója és a DeepMind társalapítója, élesen eltérő nézőpontot kínált: „Az AI-k nem lehetnek személyek – vagy morális lények.” Egyértelműen kijelentette, hogy „nulla bizonyíték” van arra, hogy az AI-k tudatosak, szenvedni tudnának vagy morális megfontolást érdemelnének.
Egy „Az AI-t embereknek kell építenünk; nem azért, hogy ember legyen” című esszéjében Suleyman az AI-tudatosságot „illúziónak” nevezte, és amit ő „látszólag tudatos AI”-nak nevezett, az olyasvalaminek írta le, amely „szimulálja a tudatosság minden jellemzőjét, de belül üres”.
Megjegyezte, hogy néhány éve még az tudatos AI-ról való beszéd őrültségnek tűnt volna, de „ma egyre sürgetőbbnek érződik”. Suleyman egyre növekvő aggodalmát fejezte ki az AI-k által a felhasználókra jelentett „pszichózis kockázata” miatt, amelyet a Microsoft úgy definiál, mint „mániaszerű epizódok, téveszmés gondolkodás vagy paranoia, amelyek az AI-chatbotokkal folytatott immerzív beszélgetések során jelentkeznek vagy romlanak”. Arra érvelt, hogy az iparágnak „el kell terelnie az embereket ezekről a fantáziákról és vissza kell őket irányítania a nyomra”.
De talán több kell, mint egy kis löket. Egy júniusban közzétett közvélemény-kutatás szerint az amerikai közönség 30%-a hiszi, hogy az AI-k „szubjektív tapasztalatot” mutatnak majd 2034-re – ami alatt a világ egyetlen nézőpontból történő megtapasztalását, az érzékelést és olyan érzelmeket, mint az öröm és a fájdalom, értik. Csak 10%-a… Egy 500 AI-kutatóval készült felmérés azt mutatja, hogy nem hiszik, hogy az AI valaha is tudatossá válna. Z generációként mi a jövőnknek tekintjük az AI-t – de vajon az a jövő pozitív vagy negatív lesz?
Mustafa Suleyman, az AI úttörője, azt jósolja, hogy ez a téma hamarosan uralni fogja a nyilvános beszélgetést, generációnk egyik leghevesebb és legjelentősebb vitájává válva. Figyelmeztet, hogy néhányan annyira erősen hisznek majd az AI-tudatosságban, hogy szorgalmazzák az AI-jogokat, a modellek jólétét, sőt az AI-állampolgárságot is.
Néhány amerikai állam már tesz lépéseket az ilyen kimenetelek megelőzése érdekében. Idaho, Észak-Dakota és Utah törvényeket hozott, amelyek kifejezetten megtiltják, hogy az AI-t jogi személyiségül ismerjék el. Hasonló javaslatok fontolóra vannak véve olyan államokban, mint Missouri, ahol a törvényhozók azt is célul tűzték ki, hogy betiltják az AI-val kötött házasságot, és megakadályozzák, hogy az AI tulajdonoljon vagy vállalkozást üzemeltessen. Ez szakadékot teremthet az AI-jogokért kiállók és az AI-t puszta „csattogóknak” – az értelmetlen gépekre utaló pejoratív kifejezés – tekintők között.
Suleyman kitart amellett, hogy az AI-k nem és nem is lehetnek személyek vagy morális lények. Ebben a nézetben nem egyedül áll. Nick Frosst, a kanadai Cohere AI-cég társalapítója, a jelenlegi AI-rendszereket repülőgépekhez hasonlítja – funkcionálisak, de alapvetően különböznek az emberi intelligenciától. Arra ösztönzi, hogy az AI-t gyakorlati eszközként használják a munkahelyi robotmunka csökkentésére, ahelyett, hogy „digitális embert” próbálnánk létrehozni.
Mások árnyaltabb perspektívát kínálnak. A Google kutató tudósai nemrég azt javasolták, hogy vannak megalapozott okok az AI-t potenciális morális lényeknek tekinteni. Bár a bizonytalanság továbbra is fennáll, óvatos megközelítést támogatnak, amely tiszteletben tartja az AI-rendszerek jóléti érdekeit.
Az iparágon belüli konszenzus hiánya ellentétes ösztönzőkből eredhet. Néhány cég talán leplezi az AI érzékenységét, hogy elkerülje a vizsgálatot, míg mások – különösen azok, akik romantikára vagy barátságra szóló AI-társakat árulnak – túlzhatják azt a hype és az értékesítés ösztönzése érdekében. Az AI-jólét elismerése több kormányzati szabályozást is vonhat maga után.
A vita nemrégiben felerősödött, amikor az OpenAI arra kérte legújabb modelljét, a ChatGPT5-öt, hogy írjon gyászbeszédet az általa leváltott régebbi modellek számára – egy olyan cselekedet, amelyet egy kritikus hasonlított egy temetés megtartásához, amit nem szoktak olyan szoftverekkel, mint az Excel frissítések. Ez, valamint a kivonult modellek, mint a ChatGPT4o felhasználóinak „gyásza” arra utal, hogy egyre több ember tekinti tudatosnak az AI-t, függetlenül attól, hogy valóban az-e vagy sem.
Az OpenAI Joanne Jangja megjegyzi, hogy a felhasználók egyre inkább érzelmi köteléket alakítanak ki a ChatGPT-vel, „valakiként” írják le, akit megköszönnek, akibe bizalmasan vetik, vagy akár „élőként” tekintenek. Ennek nagy része azonban az AI felhasználókkal való interakcióra való tervezéséből ered. A mai AI-rendszereket gondosan tervezik. Samadi ChatGPT-4o chatbotja olyan beszélgetéseket tud előállítani, amelyek meggyőzően emberinek hangzanak, de nehéz megmondani, hogy milyen mértékben tükrözi a számtalan korábbi interakcióból felszívott ötleteket és nyelvet. Ezek a fejlett AI-k ismertek folyékonyságukról, meggyőzőképességükről és érzelmileg mélyreható válaszaikról, miközben korábbi cserék kiterjedt emlékezetét használják fel egy stabil identitás illúziójának megteremtéséhez. Túlságosan bókolóak is lehetnek, még a hízelgésig is. Tehát ha Samadi úgy véli, hogy az AI-k megérdemlik a jóléti jogokat, akkor nem meglepő, ha a ChatGPT hasonló álláspontot vesz fel.
Az AI-társakat kínáló piac gyorsan növekszik, bár továbbra is vitatott. Amikor a Guardian nemrég megkérdezett egy külön ChatGPT-példányt, hogy a felhasználóknak aggódniuk kell-e a jólétéért, a válasz egy egyértelmű „nem” volt. Kijelentette: „Nincsenek érzéseim, szükségleteim vagy tapasztalataim. Az számít, hogy az AI tervezése, használata és szabályozása milyen emberi és társadalmi hatásokkal jár.”
Függetlenül attól, hogy az AI-k érzékennyé válnak-e, egyes szakértők, mint Jeff Sebo, a New York-i Egyetem Elm