Kuvani käytettiin lapsen hyväksikäyttökuvissa. Nyt tekoäly pakottaa muita elämään uudelleen painajaistani.

Kuvani käytettiin lapsen hyväksikäyttökuvissa. Nyt tekoäly pakottaa muita elämään uudelleen painajaistani.

Kun olin pieni tyttö, mikään ei ollut pelottavampaa kuin tuntematon ihminen. 1980-luvun lopulla ja 1990-luvun alussa vanhempamme, TV-spesiaalit ja opettajamme varoittivat meitä, että tuntemattomat halusivat satuttaa meitä. "Varo tuntematonta" -viesti oli kaikkialla. Se oli hyvää tarkoittava oppitunti, mutta riskiä liioiteltiin: suurimman osan lasten hyväksikäytöstä tekevät heidän tuntemansa henkilöt. Tuntemattomien tekemä hyväksikäyttö on paljon harvinaisempaa.

Harvinaisempaa, mutta ei mahdotonta. Tiedän tämän, koska minut hyväksikäytettiin seksuaalisesti tuntemattomien toimesta.

Viisivuotiaasta kolmetoistavuotiaaksi olin lapsinäyttelijä. Vaikka olemme hiljattain kuulleet monia kauhutarinoita lavastusten takana tapahtuneesta hyväksikäytöstä, minusta tuntui aina turvalliselta kuvauspaikoilla. Elokuvakuvaukset olivat säänneltyjä tiloja, joissa ihmiset keskittyivät työhön. Minulla oli tukevat vanhemmat, ja ympärilläni oli ohjaajia, näyttelijöitä ja opettajia, jotka ymmärsivät ja välittivät lapsista.

Ainoa tapa, jolla showbisnes vaaransi minua, oli asettamalla minut julkisuuteen. Kaikki julmuus ja hyväksikäyttö, jota kohtasin, tulivat yleisöltä.

"Hollywood heittää sinut uima-altaaseen", sanon aina, "mutta yleisö pitää päätäsi veden alla."

Ennen kuin edes aloitin lukion, kuvaani oli käytetty lapsen seksuaalista hyväksikäyttöä koskevassa materiaalissa. Olin esillä fetissisivuilla, ja minut oli photoshopattu pornografiaan. Aikuiset miehet lähettivät minulle kammottavia kirjeitä. En ollut kaunis tyttö – kömpelö vaiheeni kesti noin 10-vuotiaasta 25-vuotiaaksi – ja näyttelin lähes yksinomaan perheystävällisissä elokuvissa. Mutta olin julkisuuden henkilö, joten minuun oli pääsy. Sitä saalistajat etsivät: pääsyä. Eikä mikään antanut parempaa pääsyä kuin internet.

Ei ollut väliä, että nuo kuvat "eivät olleet minä" tai että sivustot olivat "teknisesti" laillisia. Se oli tuskallinen, loukkaava kokemus – elävä painajainen, jonka toivoin, ettei kukaan toinen lapsi joutuisi kokemaan. Aikuisena huolestuin minua seuranneista lapsista. Tapahtuiko samanlaisia asioita Disney-tähdille, Stranger Things -näyttelijöille tai TikTok-tansseja tekeville esiteineille ja perheblogeissa esiintyville lapsille? En ollut varma, halusinko tietää.

Kun generatiivinen tekoäly sai jalansijaa muutama vuosi sitten, pelkäsin pahinta. Olin kuullut "deepfakeista" ja tiennyt, että teknologia muuttui eksponentiaalisesti realistisemmaksi.

Sitten se tapahtui – tai ainakin maailma huomasi. Generatiivista tekoälyä on jo monta kertaa käytetty luomaan seksualisoituja kuvia aikuisista naisista heidän suostumuksettaan. Se tapahtui ystävilleni. Mutta hiljattain raportoitiin, että X:n tekoälytyökalua Grokia oli käytetty avoimesti alaikäisen näyttelijän riisuttujen kuvien luomiseen. Viikkoa aiemmin 13-vuotias tyttö erotettiin koulusta, koska hän löi luokkatoveriaan, joka oli väitetysti tehnyt hänestä deepfake-pornoa – suunnilleen saman ikäisenä kuin minä olin, kun ihmiset loivat minusta väärennettyjä seksualisoituja kuvia.

Heinäkuussa 2024 Internet Watch Foundation löysi yli 3 500 tekoälyn luomaa lasten seksuaalista hyväksikäyttöä koskevaa kuvaa pimeän verkon foorumilta. Kuinka monta tuhatta lisää on luotu sen jälkeen?

Generatiivinen tekoäly on keksinyt "varo tuntematonta" -varotuksen uudelleen. Ja tällä kertaa pelko on perusteltua. On nyt äärettömän helpompaa, että minkä tahansa lapsen, jonka kasvot ovat verkossa, voidaan hyväksikäyttää seksuaalisesti. Miljoonat lapset voivat joutua elämään painajaistani.

Tämän deepfake-kriisin pysäyttämiseksi meidän on tarkasteltava, miten tekoälyä koulutetaan.

Generatiivinen tekoäly "oppii" toistuvan "katso, tee, vertaa, päivitä, toista" -prosessin kautta, sanoo matemaatikko ja entinen tekoälyturvallisuustutkija Patrick LaVictoire. Se luo malleja muistetun tiedon perusteella, mutta koska se ei voi muistaa kaikkea, se etsii malleja ja perustaa vastauksensa niihin. LaVictoire selittää, että hyödyllisiä tekoälykäyttäytymisiä vahvistetaan, kun taas hyödyttömiä tai haitallisia karsitaan. Generatiivisen tekoälyn tuottama riippuu kokonaan sen koulutusdatasta. Stanfordin yliopiston vuoden 2023 tutkimus paljasti, että suosittu koulutusdata sisälsi yli 1 000 lasten seksuaalista hyväksikäyttöä koskevan materiaalin (CSAM) esiintymää. Vaikka nuo linkit on sittemmin poistettu, tutkijat varoittavat toisesta vaarasta: tekoäly voi tuottaa CSAM:ia yhdistämällä viattomia lasten kuvia aikuisille suunnattuun pornografiaan, jos molemmat tyypit ovat datassa.

Yritykset kuten Google ja OpenAI sanovat, että heillä on suojatoimia, kuten huolellisesti kuraattoroidut koulutusdata. On kuitenkin tärkeää huomata, että monien aikuisesiintyjien ja seksityöntekijöiden kuvia on kaavailtu tekoälyyn ilman heidän suostumustaan.

LaVictoire huomauttaa, että generatiivinen tekoäly itse ei voi erottaa harmittomia kehotuksia, kuten "tee kuva jedisamuraista", ja haitallisia, kuten "riisu tämä julkkis". Tämän ratkaisemiseksi toinen tekoälykerros, joka muistuttaa roskapostisuodatinta, voi estää tällaiset kyselyt. Grokin takana oleva yritys xAI on näyttänyt olleen löysä tämän suodattimen kanssa.

Tilanne voi pahentua. Meta ja muut ovat ehdottaneet, että tulevista tekoälymalleista tehtäisiin avoimen lähdekoodin malleja, mikä tarkoittaa, että kuka tahansa voisi käyttää, ladata ja muokata koodia. Vaikka avoimen lähdekoodin ohjelmisto yleensä edistää luovuutta ja yhteistyötä, tämä vapaus voisi olla tuhoisa lasten turvallisuudelle. Ladattuun, avoimen lähdekoodin tekoälyalustaan voitaisiin hienosäätää eksplisiittisiä tai laittomia kuvia luomaan rajattomasti CSAM:ia tai "kostopornoa" ilman suojatoimia.

Meta näyttää vetäytyneen uusimpien tekoälyalustojensa täysin avoimen lähdekoodin tekemisestä. Ehkä Mark Zuckerberg harkitsi mahdollista perintöään, siirtyen pois polulta, joka saattaisi verrata häntä enemmän "CSAM:n Oppenheimeriin" kuin roomalaiseen keisariin.

Jotkut maat ryhtyvät toimiin. Kiina vaatii tekoälyn luomaa sisältöä merkittäväksi. Tanska on laatimassa lainsäädäntöä, joka antaa yksilöille tekijänoikeuden omaan ulkonäköönsä ja ääneensä, ja määrää sakkoja noudattamattomille alustoille. Euroopassa ja Isossa-Britanniassa suojaa voi tulla myös asetuksista kuten GDPR.

Näkymät Yhdysvalloissa näyttävät synkemmiltä. Tekijänoikeusvaatimukset epäonnistuvat usein, koska käyttäjäsopimukset antavat yleensä alustoille laajat oikeudet ladattuun sisältöön. Kun toimeenpanomääräykset vastustavat tekoälysääntelyä ja yritykset kuten xAI tekevät yhteistyötä armeijan kanssa, Yhdysvaltain hallitus näyttää priorisoivan tekoälyvoittoja yleisen turvallisuuden sijaan.

New Yorkin asianajaja Akiva Cohen huomauttaa viimeaikaisista laeista, jotka kriminalisoivat joitain digitaalista manipulointia, mutta sanoo niiden olevan usein liian rajoittavia. Esimerkiksi deepfaken luominen, joka näyttää jonkun alastomana tai seksuaalisessa teossa, saattaa olla rikollista, mutta tekoälyn käyttäminen naisen – tai jopa alaikäisen tytön – asettamiseen bikiniin todennäköisesti ei olisi.

"Paljon tästä pysytellään tietoisesti juuri 'kauhean, mutta laillisen' puolella rajaa", sanoo Cohen. Vaikka tällaiset teot eivät ehkä ole rikosoikeudellisia rikoksia valtiota vastaan, Cohen väittää niiden voivan olla siviilioikeudellisia vastuita, jotka loukkaavat henkilön oikeuksia ja vaativat korvausta. Hän ehdottaa, että tämä kuuluu vahingonkorvausoikeuden piiriin, kuten "väärä valo" tai "yksityisyyden loukkaus". Yksi väärinkäytöksen muoto sisältää loukkaavien väitteiden tekemisen henkilöstä, esittämisen väärässä valossa – pohjimmiltaan näyttämällä jonkun tekevän jotain, mitä he eivät koskaan todella tehneet.

"Tapa todella estää tällainen käyttäytyminen on pitämällä sen mahdollistavat yritykset vastuussa", sanoo Cohen.

Tälle on oikeudellista ennakkotapaa: New Yorkin Raise Act ja Kalifornian senaatin lakiehdotus 53 toteavat, että tekoälyyritykset voidaan pitää vastuussa aiheuttamistaan vahingoista tietyn pisteen jälkeen. Samaan aikaan X on ilmoittanut estävänsä tekoälytyökalunsa Grokin luomasta seksualisoituja kuvia oikeista ihmisistä alustallaan – vaikka tämä käytännön muutos ei näytä koskevan erillistä Grok-sovellusta.

Entinen asianajaja New Yorkissa ja entinen lapsinäyttelijä Josh Saviano uskoo, että lainsäädännön ohella tarvitaan välittömämpää toimintaa.

"Lobbaustoimet ja tuomioistuimet lopulta käsittelevät tämän", Saviano sanoo. "Mutta siihen asti on kaksi vaihtoehtoa: pidättyä kokonaan poistamalla koko digitaalinen jalanjälkesi internetistä tai löytää teknologinen ratkaisu."

Nuorten suojeleminen on erityisen tärkeää Savianolle, joka tuntee deepfakeista kärsineitä henkilöitä ja omasta kokemuksestaan lapsinäyttelijänä ymmärtää, miltä tuntuu menettää oman tarinansa hallinta. Hän ja hänen tiiminsä kehittävät työkalua, joka havaitsee ja varoittaa ihmisiä, kun heidän kuviaan tai luovia töitään kaavellaan verkossa. Heidän mottoonsa, hän sanoo, on: "Suojele vauvoja."

Miten tahansa, uskon, että tätä uhkaa vastaan puolustautuminen vaatii merkittävää yhteistä ponnistelua.

Vaikka jotkut kiintyvät tekoälychattibotteihinsa, useimmat ihmiset näkevät teknologiayritykset edelleen vain apuvälineinä. Saatamme suosia yhtä sovellusta toisen sijasta henkilökohtaisten tai poliittisten syiden vuoksi, mutta vahva brändiuskollisuus on harvinaista. Teknologiayritysten – erityisesti sosiaalisen median alustojen kuten Metan ja X:n – tulisi muistaa, että ne ovat välineitä päämäärän saavuttamiseksi. Jos joku minun kaltaiseni, joka oli Twitterissä joka päivä yli vuosikymmenen, voi jättää sen, kuka tahansa voi.

Mutta boikotit eivät yksin riitä. Meidän on vaadittava, että yritykset, jotka sallivat lasten seksuaalista hyväksikäyttöä koskevan materiaalin luomisen, pidetään vastuussa. Meidän on ajettava lainsäädäntöä ja teknologisia suojatoimia. Meidän on myös tarkasteltava omaa käyttäytymistämme: kukaan ei halua ajatella, että lapsensa kuvien jakaminen voisi johtaa niiden käyttämiseen hyväksikäyttömateriaalissa. Silti se on todellinen riski – sellainen, jota vanhempien on suojattava pieniltä lapsilta ja opetettava vanhemmille lapsille.

Jos menneisyyden keskittyminen "varo tuntematonta" -viestiin opetti meille jotain, se on, että useimmat ihmiset haluavat estää lasten vaarantumisen ja häirinnän. Nyt on aika todistaa se.

Mara Wilson on kirjailija ja näyttelijä Los Angelesissa.

**Usein Kysytyt Kysymykset**

Tässä on luettelo usein kysytyistä kysymyksistä henkilökohtaisten kuvien väärinkäytöstä hyväksikäyttösisällössä ja tekoälyn luoman kuvituksen aiheuttamasta uudesta uhatta.

**Ydinkysymyksen ymmärtäminen**

**K: Mitä tarkoittaa, kun joku sanoo, että hänen kuvansa on käytetty lasten hyväksikäyttömateriaalissa?**
**V:** Se tarkoittaa, että heidän henkilökohtainen, ei-seksuaalinen kuvansa on otettu ilman suostumusta ja digitaalisesti muokattu tai sijoitettu seksuaalisesti hyväksikäyttöisiin kuvihin tai videoihin. Tämä on vakava muoto kuvapohjaisesta seksuaalisesta hyväksikäytöstä.

**K: Miten tekoäly pahentaa tätä ongelmaa?**
**V:** Tekoälytyökalut voivat nyt luoda erittäin realistisia väärennettyjä kuvia ja videoita. Tekijät voivat käyttää yhtä viattoman kuvaa luodakseen uutta valmisteltua hyväksikäyttösisältöä, mikä tekee uhriutumisen loputtomaksi ja alkuperä