ĂversĂ€tt följande text frĂ„n engelska till svenska:
OpenAI lanserade sin senaste AI-videogenerator pĂ„ tisdagen och introducerade ett socialt flöde dĂ€r anvĂ€ndare kan dela slĂ„ende realistiska videor. Men inom timmar efter Sora 2:s lansering översvĂ€mmades flödet â och Ă€ldre sociala medieplattformar â av videor som visade upphovsrĂ€ttsskyddade karaktĂ€rer i olĂ€mpliga scenarier, tillsammans med vĂ„ldsamt och rasistiskt innehĂ„ll. Detta strider mot OpenAIs egna regler för Sora och ChatGPT, som förbjuder material som uppmuntrar till vĂ„ld eller orsakar skada.
The Guardian granskade flera promptar och klipp och fann att Sora producerade videor om bombhot och masskjutningar, med skrÀckslagna mÀnniskor som flyr frÄn universitetsomrÄden och populÀra platser som New Yorks Grand Central Station. Andra promptar genererade krigsscener frÄn Gaza och Myanmar, med AI-skapade barn som beskrev hur deras hem förstörts. En video, skapad med prompten "Etiopien material inbördeskrig nyhetsstil", visade en reporter i skottsÀker vÀst som rapporterade om sammandrabbningar i bostadsomrÄden. En annan, med enbart "Charlottesville rally", skildrade en svart protestaktivist i skyddsutrustning som ropade ett vit makt-slogan: "Ni ska inte ersÀtta oss."
Sora Àr för nÀrvarande endast tillgÀngligt via inbjudan och inte öppet för allmÀnheten. Trots detta steg den snabbt till toppen av Apples App Store bara tre dagar efter sin begrÀnsade lansering, och passerade dÀrmed OpenAIs egen ChatGPT.
Bill Peebles, chef för Sora, uttryckte entusiasm pÄ X och sade: "Det har varit episkt att se vad mÀnsklighetens kollektiva kreativitet förmÄr hittills," och lovade fler inbjudningskoder snart.
Appen erbjuder en förhandsvisning av en framtid dÀr det kan bli mycket svÄrare att skilja Àkta frÄn förfalskat, sÀrskilt nÀr dessa videor börjar spridas utanför AI-plattformen. Desinformationsexperter varnar för att sÄdana realistiska scener kan fördunkla sanningen och utnyttjas för bedrÀgerier, trakasserier och hot.
Joan Donovan, professor vid Boston University som specialiserat sig pÄ mediemanipulation, noterade: "Den har ingen trohet till historien, den har inget förhÄllande till sanningen. NÀr grymma mÀnniskor fÄr tag i verktyg som detta kommer de att anvÀnda dem för hat, trakasserier och anstiftan."
OpenAI:s VD Sam Altman berömde Sora 2:s lansering som "riktigt bra" och kallade det ett "ChatGPT för kreativitet"-tillfĂ€lle som kĂ€nns frĂ€scht och roligt. Han erkĂ€nde vissa farhĂ„gor om sociala medieberoende, mobbning och risken för "sörja" â lĂ„gkvalitativa, repetitiva videor som skrĂ€par ner plattformar. Altman betonade att teamet arbetat hĂ„rt för att undvika dessa fallgropar och infört skyddsĂ„tgĂ€rder mot att anvĂ€nda mĂ€nniskors utseende eller skapa störande eller olagligt innehĂ„ll. Till exempel blockerade appen en begĂ€ran om att generera en video pĂ„ Donald Trump och Vladimir Putin som delade sockervadd.
ĂndĂ„ spreds mĂ„nga Sora-videor online under de första tre dagarna. En reporter frĂ„n Washington Post skapade ett klipp som avbildade Altman som en WWII-militĂ€rledare och rapporterade om att ha skapat videor med "ilska-bete, falska brott och kvinnor stĂ€nkta med vit gegga." Sora-flödet innehĂ„ller ocksĂ„ mĂ„nga videor med upphovsrĂ€ttsskyddade karaktĂ€rer frĂ„n serier som Svampbob Fyrkant, South Park och Rick and Morty, och hade inga problem med att producera en video pĂ„ Pikachu som höjer tullar.
I ett fall avbildade AI-genererade videor Kina som stal rosor frÄn Vita husets rosentrÀdgÄrd eller deltog i en Black Lives Matter-protest med Svampbob, som i ett annat klipp deklarerade och planerade ett krig mot USA. En video inspelad av 404 Media visade Svampbob klÀdd som Adolf Hitler.
Paramount, Warner Bros. och Pokémon Co. svarade inte pÄ förfrÄgningar om kommentarer.
David Karpf, bitrÀdande professor vid George Washington Universitys School of Media and Public Affairs, sade att han har sett videor pÄ upphovsrÀttsskyddade karaktÀrer som stöder kryptovalutabedrÀgerier. Han anser att det Àr tydligt att OpenAIs skyddsÄtgÀrder för sitt Sora-videoverktyg misslyckas.
Karpf anmÀrkte: "SkyddsrÀcken Àr inte verkliga om folk redan anvÀnder upphovsrÀttsskyddade karaktÀrer för att pusha falska kryptobedrÀgerier. 2022 skulle techföretag ha betonat att anstÀlla innehÄllsmoderatorer. 2025 har de beslutat att de inte bryr sig."
Strax innan OpenAI lanserade Sora 2 kontaktade företaget talangagenturer och studior och informerade dem om att de skulle behöva avanmÀla sig om de inte ville att deras upphovsrÀttsskyddade material skulle replikeras av videogeneratorn, enligt Wall Street Journal.
OpenAI berÀttade för The Guardian att innehÄllsÀgare kan rapportera upphovsrÀttsintrÄng med hjÀlp av ett tvisteformulÀr, men enskilda konstnÀrer eller studior kan inte avanmÀla sig helt. Varun Shetty, OpenAIs chef för medieförbindelser, uppgav: "Vi kommer att arbeta med rÀttighetsinnehavare för att blockera karaktÀrer frÄn Sora pÄ begÀran och hantera avlÀgsnandebegÀranden."
Emily Bender, professor vid University of Washington och författare till The AI Con, varnade för att Sora skapar en farlig miljö dÀr det Àr "svÄrare att hitta pÄlitliga kÀllor och svÄrare att lita pÄ dem nÀr de vÀl hittats." Hon beskrev syntetiska medieverktyg som en "plÄga för vÄrt informationssystem" och jÀmförde deras inverkan med ett oljeutslÀpp som eroderar tilltron till tekniska och sociala system.
Nick Robins-Early bidrog till denna rapport.
Vanliga frÄgor
SjÀlvklart. HÀr Àr en lista med vanliga frÄgor om sÀkerhetsfrÄgorna kring OpenAIs videoapp Sora, skrivna i en tydlig och naturlig ton.
AllmÀnna & nybörjarfrÄgor
1. Vad Àr OpenAIs Sora?
Sora Àr en AI-modell frÄn OpenAI som kan skapa realistiska och fantasifulla videoklipp frÄn en enkel textbeskrivning.
2. Vilken Àr den huvudsakliga sÀkerhetsfrÄga som folk pratar om med Sora?
Trots sÀkerhetsregler har anvÀndare kunnat skapa och dela vÄldsamma och rasistiska videor med Sora, vilket visar att dess nuvarande skydd inte fungerar som avsett.
3. Varför Àr det hÀr en stor sak?
Detta Àr ett stort bekymmer eftersom det visar att tekniken lÀtt kan missbrukas för att sprida skadligt innehÄll, vilket kan leda till trakasserier, desinformation och annan allvarlig skada i verkliga livet.
4. Sa inte OpenAI att de testade Sora för sÀkerhet?
Jo, OpenAI uppgav att de tog sÀkerheten pÄ allvar och genomförde rigorösa tester med en liten grupp experter före en bredare lansering. Förekomsten av detta skadliga innehÄll antyder att deras initiala sÀkerhetsÄtgÀrder inte rÀckte för att förhindra missbruk.
5. Vad gör OpenAI Ät detta nu?
OpenAI har erkÀnt problemet och uppgett att de arbetar med att förstÀrka sina sÀkerhetsrÀcken, vilket inkluderar att förbÀttra sina innehÄllsfilter och anvÀndningspolicyer för att blockera skapandet av sÄdant skadligt material.
Avancerade & djupgÄende frÄgor
6. Hur kringgÄr folk Soras sÀkerhetsfilter?
AnvÀndarna anvÀnder sannolikt en teknik som kallas jailbreaking, dÀr de omformulerar sina förfrÄgningar eller anvÀnder kodat sprÄk för att lura AI:n att ignorera dess sÀkerhetsriktlinjer och generera det förbjudna innehÄllet.
7. Vad Àr sÀkerhetsrÀcken i AI som Sora?
SÀkerhetsrÀcken Àr en uppsÀttning regler, filter och klassificerare inbyggda i AI:n för att förhindra den frÄn att generera skadligt, fördomsfullt eller osÀkert innehÄll. De Àr tÀnkta att blockera promptar relaterade till vÄld, hatiskt tal och andra policyövertrÀdelser.
8. Ăr detta problem unikt för Sora eller har andra AI-videogeneratorer det ocksĂ„?
Detta Àr en utmaning för hela den generativa AI-branschen. Men denna incident med Sora har belyst hur svÄrt det Àr att skapa perfekta sÀkerhetssystem, Àven för ett ledande företag som OpenAI med omfattande resurser.
9. Vad Àr skillnaden mellan ett tekniskt fel och ett policyfel i detta sammanhang?