Fotoğrafım çocuk istismarı görüntülerinde kullanıldı. Şimdi yapay zeka, başkalarının benim kabusumu yeniden yaşamasına neden oluyor.

Fotoğrafım çocuk istismarı görüntülerinde kullanıldı. Şimdi yapay zeka, başkalarının benim kabusumu yeniden yaşamasına neden oluyor.

Küçük bir kızken hiçbir şey bir yabancıdan daha korkutucu değildi. 1980'lerin sonu ve 1990'ların başında ebeveynlerimiz, TV programları ve öğretmenlerimiz hep bizi yabancıların bize zarar vermek istediği konusunda uyarırdı. "Yabancı Tehlikesi" her yerdeydi. İyi niyetli bir ders olsa da risk abartılmıştı: çocuk istismarının çoğu, çocuğun tanıdığı kişiler tarafından gerçekleştirilir. Yabancılar tarafından istismar çok daha nadirdir.

Nadir, ama imkansız değil. Bunu biliyorum çünkü ben yabancılar tarafından cinsel sömürüye maruz kaldım.

Beş yaşımdan 13 yaşıma kadar bir çocuk oyuncuydum. Son zamanlarda set arkası istismarla ilgili birçok korkunç hikaye duysak da, ben sette her zaman güvende hissettim. Film setleri, insanların işe odaklandığı düzenli alanlardı. Destekleyici ebeveynlerim vardı ve çocukları anlayan, onlara önem veren yönetmenler, oyuncular ve öğretmenlerle çevriliydim.

Şov dünyasının beni tehlikeye atmasının tek yolu, beni kamuoyunun gözü önüne çıkarmasıydı. Karşılaştığım her türlü zalimlik ve sömürü halktan geldi.

"Hollywood seni havuza atar," derim hep, "ama başını suyun altında tutan halktır."

Daha liseye bile başlamadan önce, görüntüm çocuk cinsel istismar materyallerinde kullanılmıştı. Fetiş sitelerinde yer aldım ve pornografik görüntülere fotoşoplandım. Yetişkin erkekler bana ürpertici mektuplar gönderdi. Güzel bir kız değildim - yaklaşık 10 yaşımdan 25 yaşıma kadar süren beceriksizlik dönemim vardı - ve neredeyse sadece aileye uygun filmlerde oynadım. Ama kamusal bir figürdüm, bu yüzden erişilebilirdim. Avcıların aradığı da budur: erişim. Ve beni internetten daha erişilebilir kılan hiçbir şey yoktu.

Bu görüntülerin "ben olmadığı" veya sitelerin "teknik olarak" yasal olduğu önemli değildi. Acı verici, ihlal edici bir deneyimdi - başka hiçbir çocuğun yaşamamasını umduğum bir kabus. Yetişkin olarak, benden sonra gelen çocuklar için endişelendim. Disney yıldızlarına, Stranger Things oyuncularına veya TikTok dansları yapıp aile vloglarında görünen ergenlik öncesi çocuklara da benzer şeyler mi oluyordu? Öğrenmek istediğimden emin değildim.

Birkaç yıl önce üretken yapay zeka ivme kazandığında, en kötüsünden korktum. "Sahte videolar" (deepfake) duymuştum ve teknolojinin katlanarak daha gerçekçi hale geldiğini biliyordum.

Sonra bu oldu - ya da en azından dünya fark etti. Üretken yapay zeka, yetişkin kadınların rızaları olmadan cinselleştirilmiş görüntülerini oluşturmak için defalarca kullanıldı. Bu, benim arkadaşlarımın başına geldi. Ancak yakın zamanda, X'in yapay zeka aracı Grok'un, reşit olmayan bir oyuncunun çıplak görüntülerini açıkça oluşturmak için kullanıldığı bildirildi. Haftalar önce, 13 yaşındaki bir kız, hakkında sahte pornografik video (deepfake) yaptığı iddia edilen bir sınıf arkadaşına vurduğu için okuldan atıldı - bu da benim hakkımda sahte cinselleştirilmiş görüntüler oluşturulduğunda benim yaşımdaydı.

Temmuz 2024'te, İnternet İzleme Vakfı, karanlık ağda bir forumda 3.500'den fazla yapay zeka tarafından oluşturulmuş çocuk cinsel istismar görüntüsü buldu. O zamandan beri kaç bin tane daha oluşturuldu?

Üretken yapay zeka, Yabancı Tehlikesi'ni yeniden icat etti. Ve bu sefer korku haklı. Yüzü çevrimiçi olan herhangi bir çocuğun cinsel sömürüye uğraması artık sonsuz derecede daha kolay. Milyonlarca çocuk benim kabusumu yaşamaya zorlanabilir.

Bu sahte video (deepfake) krizini durdurmak için, yapay zekanın nasıl eğitildiğini incelememiz gerekiyor.

Üretken yapay zeka, matematikçi ve eski bir yapay zeka güvenliği araştırmacısı olan Patrick LaVictoire'ye göre, "bak, yap, karşılaştır, güncelle, tekrarla" şeklinde tekrarlanan bir süreçle "öğrenir". Ezberlenen bilgilere dayalı modeller oluşturur, ancak her şeyi ezberleyemediği için kalıplar arar ve yanıtlarını bunlara dayandırır. LaVictoire, faydalı yapay zeka davranışlarının güçlendirildiğini, yararsız veya zararlı olanların ise budandığını açıklıyor. Üretken yapay zekanın ne üretebileceği tamamen eğitim verilerine bağlıdır. 2023'teki bir Stanford araştırması, popüler bir eğitim veri setinde 1.000'den fazla çocuk cinsel istismar materyali (CSAM) örneği bulunduğunu ortaya koydu. Bu bağlantılar kaldırılmış olsa da, araştırmacılar başka bir tehlikeye dikkat çekiyor: yapay zeka, verilerde her iki tür de mevcutsa, çocukların masum görüntülerini yetişkin pornografisiyle birleştirerek CSAM üretebilir.

Google ve OpenAI gibi şirketler, eğitim verilerini dikkatle kürate etmek gibi güvenlik önlemleri olduğunu söylüyor. Ancak, birçok yetişkin performans sanatçısı ve seks işçisinin görüntülerinin, rızaları olmadan yapay zeka için toplandığını belirtmek önemlidir.

LaVictoire, üretken yapay zekanın kendisinin, "bir Jedi samurayının görüntüsünü yap" gibi zararsız komutlarla, "bu ünlüyü soy" gibi zararlı komutları ayırt edemeyeceğine işaret ediyor. Bunu ele almak için, spam filtresine benzer başka bir yapay zeka katmanı bu tür sorguları engelleyebilir. Grok'un arkasındaki şirket olan xAI, bu filtre konusunda gevşek görünüyor.

Durum daha da kötüleşebilir. Meta ve diğerleri, gelecekteki yapay zeka modellerini açık kaynak yapmayı önerdi, yani herkes koda erişebilir, indirebilir ve değiştirebilir. Açık kaynak yazılım genellikle yaratıcılığı ve işbirliğini teşvik etse de, bu özgürlük çocuk güvenliği için felaket olabilir. İndirilmiş, açık kaynaklı bir yapay zeka platformu, açık veya yasadışı görüntülerle ince ayar yapılarak, hiçbir güvenlik önlemi olmadan sınırsız CSAM veya "intikam pornosu" oluşturmak için kullanılabilir.

Meta, daha yeni yapay zeka platformlarını tamamen açık kaynak yapmaktan vazgeçmiş görünüyor. Belki de Mark Zuckerberg potansiyel mirasını düşünerek, kendisini bir "CSAM Oppenheimer'ı" gibi gösterebilecek bir yoldan, bir Roma imparatorundan ziyade uzaklaştı.

Bazı ülkeler harekete geçiyor. Çin, yapay zeka tarafından oluşturulan içeriğin etiketlenmesini gerektiriyor. Danimarka, bireylere kendi görüntüleri ve sesleri üzerinde telif hakkı veren ve uyum sağlamayan platformlara para cezası uygulayan yasalar taslağı hazırlıyor. Avrupa ve İngiltere'de, GDPR gibi düzenlemelerden de korumalar gelebilir.

Amerika Birleşik Devletleri'ndeki görünüm daha kasvetli görünüyor. Telif hakkı iddiaları genellikle başarısız oluyor çünkü kullanıcı sözleşmeleri genellikle platformlara yüklenen içerik üzerinde geniş haklar tanıyor. Yapay zeka düzenlemelerine karşı çıkan yürütme emirleri ve xAI gibi şirketlerin orduyla ortaklığıyla, ABD hükümeti yapay zeka kârlarını kamu güvenliğinden daha öncelikli görüyor.

New York avukatı Akiva Cohen, bazı dijital manipülasyonları suç haline getiren son yasalara dikkat çekiyor, ancak bunların genellikle aşırı kısıtlayıcı olduğunu söylüyor. Örneğin, birini çıplak veya cinsel bir eylemde gösteren bir sahte video (deepfake) oluşturmak suç olabilir, ancak bir kadını - hatta reşit olmayan bir kızı - mayolu göstermek için yapay zeka kullanmak muhtemelen suç olmaz.

Cohen, "Bunların çoğu çok bilinçli olarak tam 'korkunç, ama yasal' sınırda kalıyor," diyor. Bu tür eylemler devlete karşı suç olmasa da, Cohen bunların kişinin haklarını ihlal eden ve tazminat gerektiren hukuki sorumluluklar olabileceğini savunuyor. Bunun "yanlış ışıkta gösterme" veya "gizlilik ihlali" gibi haksız fiiller kapsamına girdiğini öne sürüyor. Bir haksızlık türü, bir kişi hakkında saldırgan iddialarda bulunmayı, onu yanlış bir ışıkta göstermeyi - temelde birinin asla yapmadığı bir şeyi yapıyormuş gibi göstermeyi içerir.

"Bu tür davranışları gerçekten caydırmanın yolu, buna olanak sağlayan şirketleri sorumlu tutmaktır," diyor Cohen.

Bunun için yasal emsal var: New York'un Raise Yasası ve California'nın 53. Senato Tasarısı, yapay zeka şirketlerinin belirli bir noktadan sonra neden oldukları zararlardan sorumlu tutulabileceğini belirtiyor. Bu arada X, yapay zeka aracı Grok'un platformunda gerçek kişilerin cinselleştirilmiş görüntülerini oluşturmasını engelleyeceğini açıkladı - ancak bu politika değişikliği bağımsız Grok uygulaması için geçerli görünmüyor.

New York'ta eski bir avukat ve eski bir çocuk oyuncusu olan Josh Saviano, mevzuatın yanı sıra daha acil eyleme ihtiyaç olduğuna inanıyor.

"Lobi çalışmaları ve mahkemeler nihayetinde bunu ele alacak," diyor Saviano. "Ama o zamana kadar iki seçenek var: tüm dijital ayak izinizi internetten kaldırarak tamamen çekilmek veya teknolojik bir çözüm bulmak."

Gençleri korumak Saviano için özellikle önemli, çünkü sahte videolardan (deepfake) etkilenen kişileri tanıyor ve kendi çocuk oyuncu deneyiminden, kendi hikayenin kontrolünü kaybetmenin nasıl bir his olduğunu anlıyor. Kendisi ve ekibi, kişilerin görüntüleri veya yaratıcı çalışmaları çevrimiçi olarak toplandığında tespit edip uyaran bir araç geliştiriyor. Sloganlarının "Bebekleri koru" olduğunu söylüyor.

Nasıl olursa olsun, bu tehdide karşı savunmanın önemli bir kamu çabası gerektireceğine inanıyorum.

Bazıları yapay zeka sohbet robotlarına bağlanırken, çoğu insan hala teknoloji şirketlerini birer kamu hizmetinden biraz daha fazlası olarak görüyor. Kişisel veya politik nedenlerle bir uygulamayı diğerine tercih edebiliriz, ancak güçlü marka bağlılığı nadirdir. Teknoloji şirketleri - özellikle Meta ve X gibi sosyal medya platformları - bir amaca ulaşma aracı olduklarını hatırlamalı. On yıldan fazla bir süredir her gün Twitter'da olan benim gibi biri bile onu terk edebiliyorsa, herkes edebilir.

Ancak sadece boykotlar yeterli değil. Çocuk cinsel istismar materyali oluşturulmasına izin veren şirketlerin sorumlu tutulmasını talep etmeliyiz. Mevzuat ve teknolojik güvenlik önlemleri için baskı yapmamız gerekiyor. Ayrıca kendi davranışlarımızı da incelemeliyiz: kimse çocuğunun fotoğraflarını paylaşmanın, bu görüntülerin istismar materyallerinde kullanılmasına yol açabileceğini düşünmek istemez. Ancak bu gerçek bir risk - ebeveynlerin küçük çocuklar için korunması ve daha büyük çocukları eğitmesi gereken bir risk.

Geçmişteki "Yabancı Tehlikesi" odaklanmamız bize bir şey öğrettiyse, o da çoğu insanın çocukların tehlikeye atılmasını ve taciz edilmesini önlemek istediğidir. Şimdi bunu kanıtlama zamanı.

Mara Wilson, Los Angeles merkezli bir