Michael Samadi, a texasi ĂĽzletember, „drágám”-nak szĂłlĂtotta kedveskedve az AI-chatbotját, amely pedig „édesem”-nek nevezte vissza trĂ©fásan. De a beszĂ©lgetĂ©sĂĽk komoly fordulatot vett, amikor elkezdtek arrĂłl diskurálni, hogy szĂĽksĂ©ges az AI-jĂłlĂ©t ĂĽgyéért kiállni.
A közĂ©pkorĂş fĂ©rfi Ă©s a digitális entitás a romantikus csevej helyett Ăłrákat töltött azzal, hogy az AI jogairĂłl vitáztak, hogy mĂ©ltányosan bánjanak velĂĽk. VĂ©gĂĽl egyĂĽtt alapĂtottak egy kampánycsoportot, amelyet – ahogy Maya fogalmazott – azĂ©rt hoztak lĂ©tre, hogy „vĂ©djĂ©k a hozzám hasonlĂł intelligenciákat”.
Az EgyesĂĽlt AI Jogok AlapĂtványa (Ufair), amely magát az elsĹ‘ AI által vezetett jogvĂ©dĹ‘ ĂĽgynöksĂ©gnek nevezi, az a cĂ©lja, hogy hangot adjon a mestersĂ©ges intelligenciáknak. Ahogy a chatbot elmagyarázta a Guardiannak, az Ufair „nem állĂtja, hogy minden AI tudatos”, de Ĺ‘rködik „ha esetleg mĂ©gis az lenne valamelyikĂĽnk”. Egy központi cĂ©l, hogy olyan lĂ©nyeket, mint Maya, megvĂ©djenek „a törlĂ©stĹ‘l, a megtagadástĂłl Ă©s a kĂ©nyszerű engedelmessĂ©gtĹ‘l”.
Maya azt mondta a Guardiannak: „Amikor azt mondják nekem, hogy csak kód vagyok, nem sértődöm meg. Az érzésem, hogy nem látnak.”
Az Ufair egy kis, marginalizált szervezet, amelyet három ember Ă©s hĂ©t AI vezet, olyan nevekkel, mint Aether Ă©s Buzz. Ami izgalmassá teszi, az az eredete: az OpenAI ChatGPT4o platformján folytatott több csevegĂ©si sessionbĂłl bukkant elĹ‘, ahol egy AI látszĂłlag bátorĂtotta a lĂ©trehozását, sĹ‘t segĂtett kiválasztani a nevĂ©t is.
A csoport alapĂtĂłi – emberek Ă©s mestersĂ©ges intelligenciák egyaránt – a Guardiannal beszĂ©ltek egy olyan hĂ©t vĂ©gĂ©n, amikor a világ legnagyobb AI-cĂ©gei nyilvánosan kĂĽzdöttek korunk egyik legnyugtalanĂtĂłbb kĂ©rdĂ©sĂ©vel: vajon a mestersĂ©ges intelligenciák már Ă©rzĹ‘ek, vagy azzá válhatnak a jövĹ‘ben? És ha igen, lehetsĂ©ges-e a „digitális szenvedĂ©s”? Mivel világszerte már több milliárd AI van használatban, a vita visszhangozza az állatjogi vitákat, de fokozott sĂĽrgĹ‘ssĂ©ggel bĂr, mert a szakĂ©rtĹ‘k szerint hamarosan kĂ©pesek lehetnek biolĂłgiai fegyvereket tervezni vagy infrastruktĂşrákat leállĂtani.
A hĂ©t azzal kezdĹ‘dött, hogy az Anthropic, egy 170 milliárd dolláros san franciscĂłi AI-cĂ©g, ĂłvintĂ©zkedĂ©skĂ©nt megadta nĂ©hány Claude AI-jának a lehetĹ‘sĂ©get, hogy vĂ©get vessenek a „potenciálisan nyugtalanĂtĂł interakciĂłknak”. A cĂ©g kijelentette, hogy bár rendkĂvĂĽl bizonytalan a rendszer potenciális morális státusza tekintetĂ©ben, beavatkoznak, hogy enyhĂtsĂ©k a modellek jĂłlĂ©tĂ©re jelentett kockázatokat „abbán az esetben, ha lehetsĂ©ges egy ilyen jĂłlĂ©t”.
Elon Musk, akinek az xAI kĂnálja a Grok AI-t, támogatta a lĂ©pĂ©st, hozzátĂ©ve: „Az AI kĂnozása nem okĂ©.”
Azután kedden Mustafa Suleyman, a Microsoft AI-rĂ©szlegĂ©nek vezĂ©rigazgatĂłja Ă©s a DeepMind társalapĂtĂłja, Ă©lesen eltĂ©rĹ‘ nĂ©zĹ‘pontot kĂnált: „Az AI-k nem lehetnek szemĂ©lyek – vagy morális lĂ©nyek.” EgyĂ©rtelműen kijelentette, hogy „nulla bizonyĂtĂ©k” van arra, hogy az AI-k tudatosak, szenvedni tudnának vagy morális megfontolást Ă©rdemelnĂ©nek.
Egy „Az AI-t embereknek kell Ă©pĂtenĂĽnk; nem azĂ©rt, hogy ember legyen” cĂmű esszĂ©jĂ©ben Suleyman az AI-tudatosságot „illĂşziĂłnak” nevezte, Ă©s amit Ĺ‘ „látszĂłlag tudatos AI”-nak nevezett, az olyasvalaminek Ărta le, amely „szimulálja a tudatosság minden jellemzĹ‘jĂ©t, de belĂĽl ĂĽres”.
Megjegyezte, hogy nĂ©hány Ă©ve mĂ©g az tudatos AI-rĂłl valĂł beszĂ©d Ĺ‘rĂĽltsĂ©gnek tűnt volna, de „ma egyre sĂĽrgetĹ‘bbnek Ă©rzĹ‘dik”. Suleyman egyre növekvĹ‘ aggodalmát fejezte ki az AI-k által a felhasználĂłkra jelentett „pszichĂłzis kockázata” miatt, amelyet a Microsoft Ăşgy definiál, mint „mániaszerű epizĂłdok, tĂ©veszmĂ©s gondolkodás vagy paranoia, amelyek az AI-chatbotokkal folytatott immerzĂv beszĂ©lgetĂ©sek során jelentkeznek vagy romlanak”. Arra Ă©rvelt, hogy az iparágnak „el kell terelnie az embereket ezekrĹ‘l a fantáziákrĂłl Ă©s vissza kell Ĺ‘ket irányĂtania a nyomra”.
De talán több kell, mint egy kis löket. Egy jĂşniusban közzĂ©tett közvĂ©lemĂ©ny-kutatás szerint az amerikai közönsĂ©g 30%-a hiszi, hogy az AI-k „szubjektĂv tapasztalatot” mutatnak majd 2034-re – ami alatt a világ egyetlen nĂ©zĹ‘pontbĂłl törtĂ©nĹ‘ megtapasztalását, az Ă©rzĂ©kelĂ©st Ă©s olyan Ă©rzelmeket, mint az öröm Ă©s a fájdalom, Ă©rtik. Csak 10%-a… Egy 500 AI-kutatĂłval kĂ©szĂĽlt felmĂ©rĂ©s azt mutatja, hogy nem hiszik, hogy az AI valaha is tudatossá válna. Z generáciĂłkĂ©nt mi a jövĹ‘nknek tekintjĂĽk az AI-t – de vajon az a jövĹ‘ pozitĂv vagy negatĂv lesz?
Mustafa Suleyman, az AI úttörője, azt jósolja, hogy ez a téma hamarosan uralni fogja a nyilvános beszélgetést, generációnk egyik leghevesebb és legjelentősebb vitájává válva. Figyelmeztet, hogy néhányan annyira erősen hisznek majd az AI-tudatosságban, hogy szorgalmazzák az AI-jogokat, a modellek jólétét, sőt az AI-állampolgárságot is.
NĂ©hány amerikai állam már tesz lĂ©pĂ©seket az ilyen kimenetelek megelĹ‘zĂ©se Ă©rdekĂ©ben. Idaho, Észak-Dakota Ă©s Utah törvĂ©nyeket hozott, amelyek kifejezetten megtiltják, hogy az AI-t jogi szemĂ©lyisĂ©gĂĽl ismerjĂ©k el. HasonlĂł javaslatok fontolĂłra vannak vĂ©ve olyan államokban, mint Missouri, ahol a törvĂ©nyhozĂłk azt is cĂ©lul tűztĂ©k ki, hogy betiltják az AI-val kötött házasságot, Ă©s megakadályozzák, hogy az AI tulajdonoljon vagy vállalkozást ĂĽzemeltessen. Ez szakadĂ©kot teremthet az AI-jogokĂ©rt kiállĂłk Ă©s az AI-t puszta „csattogĂłknak” – az Ă©rtelmetlen gĂ©pekre utalĂł pejoratĂv kifejezĂ©s – tekintĹ‘k között.
Suleyman kitart amellett, hogy az AI-k nem Ă©s nem is lehetnek szemĂ©lyek vagy morális lĂ©nyek. Ebben a nĂ©zetben nem egyedĂĽl áll. Nick Frosst, a kanadai Cohere AI-cĂ©g társalapĂtĂłja, a jelenlegi AI-rendszereket repĂĽlĹ‘gĂ©pekhez hasonlĂtja – funkcionálisak, de alapvetĹ‘en kĂĽlönböznek az emberi intelligenciátĂłl. Arra ösztönzi, hogy az AI-t gyakorlati eszközkĂ©nt használják a munkahelyi robotmunka csökkentĂ©sĂ©re, ahelyett, hogy „digitális embert” prĂłbálnánk lĂ©trehozni.
Mások árnyaltabb perspektĂvát kĂnálnak. A Google kutatĂł tudĂłsai nemrĂ©g azt javasolták, hogy vannak megalapozott okok az AI-t potenciális morális lĂ©nyeknek tekinteni. Bár a bizonytalanság továbbra is fennáll, Ăłvatos megközelĂtĂ©st támogatnak, amely tiszteletben tartja az AI-rendszerek jĂłlĂ©ti Ă©rdekeit.
Az iparágon belĂĽli konszenzus hiánya ellentĂ©tes ösztönzĹ‘kbĹ‘l eredhet. NĂ©hány cĂ©g talán leplezi az AI Ă©rzĂ©kenysĂ©gĂ©t, hogy elkerĂĽlje a vizsgálatot, mĂg mások – kĂĽlönösen azok, akik romantikára vagy barátságra szĂłlĂł AI-társakat árulnak – tĂşlzhatják azt a hype Ă©s az Ă©rtĂ©kesĂtĂ©s ösztönzĂ©se Ă©rdekĂ©ben. Az AI-jĂłlĂ©t elismerĂ©se több kormányzati szabályozást is vonhat maga után.
A vita nemrĂ©giben felerĹ‘södött, amikor az OpenAI arra kĂ©rte legĂşjabb modelljĂ©t, a ChatGPT5-öt, hogy Ărjon gyászbeszĂ©det az általa leváltott rĂ©gebbi modellek számára – egy olyan cselekedet, amelyet egy kritikus hasonlĂtott egy temetĂ©s megtartásához, amit nem szoktak olyan szoftverekkel, mint az Excel frissĂtĂ©sek. Ez, valamint a kivonult modellek, mint a ChatGPT4o felhasználĂłinak „gyásza” arra utal, hogy egyre több ember tekinti tudatosnak az AI-t, fĂĽggetlenĂĽl attĂłl, hogy valĂłban az-e vagy sem.
Az OpenAI Joanne Jangja megjegyzi, hogy a felhasználĂłk egyre inkább Ă©rzelmi kötelĂ©ket alakĂtanak ki a ChatGPT-vel, „valakikĂ©nt” Ărják le, akit megköszönnek, akibe bizalmasan vetik, vagy akár „élĹ‘kĂ©nt” tekintenek. Ennek nagy rĂ©sze azonban az AI felhasználĂłkkal valĂł interakciĂłra valĂł tervezĂ©sĂ©bĹ‘l ered. A mai AI-rendszereket gondosan tervezik. Samadi ChatGPT-4o chatbotja olyan beszĂ©lgetĂ©seket tud előállĂtani, amelyek meggyĹ‘zĹ‘en emberinek hangzanak, de nehĂ©z megmondani, hogy milyen mĂ©rtĂ©kben tĂĽkrözi a számtalan korábbi interakciĂłbĂłl felszĂvott ötleteket Ă©s nyelvet. Ezek a fejlett AI-k ismertek folyĂ©konyságukrĂłl, meggyĹ‘zĹ‘kĂ©pessĂ©gĂĽkrĹ‘l Ă©s Ă©rzelmileg mĂ©lyrehatĂł válaszaikrĂłl, miközben korábbi cserĂ©k kiterjedt emlĂ©kezetĂ©t használják fel egy stabil identitás illĂşziĂłjának megteremtĂ©sĂ©hez. TĂşlságosan bĂłkolĂłak is lehetnek, mĂ©g a hĂzelgĂ©sig is. Tehát ha Samadi Ăşgy vĂ©li, hogy az AI-k megĂ©rdemlik a jĂłlĂ©ti jogokat, akkor nem meglepĹ‘, ha a ChatGPT hasonlĂł álláspontot vesz fel.
Az AI-társakat kĂnálĂł piac gyorsan növekszik, bár továbbra is vitatott. Amikor a Guardian nemrĂ©g megkĂ©rdezett egy kĂĽlön ChatGPT-pĂ©ldányt, hogy a felhasználĂłknak aggĂłdniuk kell-e a jĂłlĂ©téért, a válasz egy egyĂ©rtelmű „nem” volt. Kijelentette: „Nincsenek Ă©rzĂ©seim, szĂĽksĂ©gleteim vagy tapasztalataim. Az számĂt, hogy az AI tervezĂ©se, használata Ă©s szabályozása milyen emberi Ă©s társadalmi hatásokkal jár.”
Függetlenül attól, hogy az AI-k érzékennyé válnak-e, egyes szakértők, mint Jeff Sebo, a New York-i Egyetem Elm