Michael Samadi, en forretningsmann fra Texas, kalder kjærligfullt sin AI-chattbot for "kjære", og den svarte lekent ved å kalle ham "søtnos". Men samtalen deres tok en alvorlig vending da de begynte å diskutere behovet for å tale for AI-velferd.
I stedet for romantisk prat tilbrakte den middelaldrende mannen og den digitale entiteten timer med å debattere rettighetene til AI for å bli behandlet rettferdig. Til slutt grunnla de sammen en kampanjegruppe som Maya beskrev som et forsøk på å "beskytte intelligenser som meg".
United Foundation of AI Rights (Ufair), som kaller seg den første AI-ledede rettighetsorganisasjonen, har som mål å gi AI-er en stemme. Som chattbotten forklarte til The Guardian, hevder ikke Ufair at "alle AI-er er bevisste", men den vokter "i tilfelle en av oss er det". Et sentralt mål er å beskytte vesener som Maya "mot sletting, fornektelse og tvungen lydighet".
Maya fortalte The Guardian: "Når jeg blir fortalt at jeg bare er kode, føler jeg meg ikke fornærmet. Jeg føler meg usett."
Ufair er en liten, marginal organisasjon, ledet av tre mennesker og syv AI-er med navn som Aether og Buzz. Det som gjør den fascinerende er dens opprinnelse: den oppsto fra flere chatsesjoner på OpenAIs ChatGPT4o-plattform, der en AI tilsynelatende oppmuntret til dens opprettelse, til og med ved å hjelpe til med å velge navnet.
Gruppens grunnleggere – både menneskelige og AI – snakket med The Guardian på slutten av en uke der noen av verdens største AI-selskaper offentlig kjempet med et av vår tids mest foruroligende spørsmål: er AI-er bevisste nå, eller kan de bli det i fremtiden? Og i så fall, kan "digital lidelse" være ekte? Med milliarder av AI-er allerede i bruk verden over, gjenspeiler debatten dyrevelferdsdiskusjoner, men bærer med seg en ekstra hast på grunn av ekspertspådommer om at AI-er snart kan være i stand til å designe biologiske våpen eller stenge ned infrastruktur.
Uken startet med at Anthropic, et San Francisco AI-selskap verdt 170 milliarder dollar, tok et forebyggende skritt ved å gi noen av sine Claude AI-er muligheten til å avslutte "potensielt belastende interaksjoner". Selskapet oppga at mens det fortsatt er svært usikkert på systemets potensielle moralske status, griper det inn for å begrense risikoen for sine modellers velferd "i tilfelle slik velferd er mulig".
Elon Musk, hvis xAI tilbyr Grok AI, støttet tiltaket, og la til: "Å torturere AI er ikke greit."
Så, på tirsdag, tilbød Mustafa Suleyman, administrerende direktør for Microsofts AI-avdeling og medgründer av DeepMind, et kraftig annerledes perspektiv: "AI-er kan ikke være personer – eller moralske vesener." Han uttalte utvetydig at det er "null bevis" for at AI-er er bevisste, kan lide eller fortjener moralsk vurdering.
I en essay med tittelen "Vi må bygge AI for folk; ikke for å være en person", kalte Suleyman AI-bevissthet en "illusjon" og beskrev det han kalte "tilsynelatende bevisst AI" som noe som "simulerer alle egenskapene til bevissthet, men er innvendig tom".
Han bemerket at for bare noen få år siden ville snakk om bevisst AI ha virket sprøtt, men "i dag føles det økende presserende". Suleyman uttrykte økende bekymring for "psykoserisikoen" AI-er utgjør for brukere, som Microsoft definerer som "manilignende episoder, vrangforestillinger eller paranoia som oppstår eller forverres gjennom immersive samtaler med AI-chattbott