İnternet İzleme Vakfı (IWF), yapay zeka teknolojisinin çocuk cinsel istismarı nitelikli materyal üretiminde kullanımı üzerine bir rapor yayımladı. Yayımlanan rapora göre yapay zeka kullanılarak oluşturulan her üç görselden biri çocuk istismarı içeriyor. Bilinen istismar mağduru çocukların görselleri yapay zekayla canlandırılarak yeni istismar görsellerinde kullanılıyor.
ÇOCUK İSTİSMARI İÇİN YAPAY ZEKA KULLANIYORLAR
“Yapay zeka çocuk cinsel istismar raporu” isimli rapor, AI teknolojisinin suçlular tarafından giderek daha fazla kullanıldığına dikkat çekiyor. Raporda özellikle belirtilen detaya göre, AI özellikle görsel içeriklerde çocuk istismarı amacıyla manipüle ediliyor.
Rapora göre AI araçlarını kullanarak yasa dışı çocuk istismarı içeriklerini üretmek konusunda çok daha başarılı hale gelen suçlular, 2023’te özellikle “dark web” de yaklaşık 20 bin AI destekli CSAM görüntüsünü paylaştı. Raporda 2024’te sayıda düşüş yaşanmasına rağmen paylaşılan içeriklerin daha ciddi suç kategorilerine girdiği belirtildi. Hızla gelişen AI teknolojisi sayesinde oluşturulan görüntülerin %90’ının gerçek görüntüler kadar gerçekçi olduğu ve yasa dışı olarak değerlendirilebileceği vurgulandı.
SUÇLULARIN ELİNDE POTANSİYEL BİR ARAÇ
2024’te ilk kez AI ile üretilmiş cinsel istismar videolarına rastlandığı, videoların çoğunun gerçek görüntülerin AI ile manipüle edilmesiyle oluşturulan içerikler olduğu ancak tam sentetik videoların da üretilmeye başlandığı ifade edildi.
Raporda, Google Veo ile OpenAI Sora gibi gelişmiş AI video gibi üretim araçların metinden görüntüye ya da metinden videoya içerik üretebilme kapasitesinin suçluların elinde potansiyel bir araç haline geldiği vurgulandı.
HER BEŞ İÇERİKTEN BİRİ ÇOCUK İSTİSMARI
Bir IWF analistinin rapor bağlamında yaptığı açıklamaya göre, Nisan 2023 ile Mart 2024 arasında, kamuya açık internet sitelerinde yer alan ve AI ile oluşturulmuş 375 içerik için bildirim yapıldığı tespit edildi. Analiz sonucunda, bu 375 bildirimin 70’inde yer alan içeriklerin CSAM olduğu ve Birleşik Krallık yasaları uyarınca “çocuk istismarı” suçunu meydana getirdiği belirlendi. Bu, AI ile oluşturulmuş her beş içerikten birinin CSAM olduğu anlamına gelirken bu içeriklerin kaldırılmaları için işlem yapıldı.
ÇOCUKLAR 1 İLA 15 YAŞLARINDA
Rapor kapsamında AI ile oluşturulmuş CSAM görsellerindeki çocukların tahmini yaşlarını da analiz eden vakıf,1 ila 13 yaş aralığındaki çocuklar ile 14-15 yaşlarındaki çocukların kullanıldığı görsel sayısı, Eylül 2023 dönemine kıyasla ortalama %10 artış gösterdiğini bildirdi.
“ÇOCUK İSTİSMARI İÇERİKLERİNİN ÖNÜNE GEÇMEK İMKANSIZ HALE GELEBİLİR”
İnternet İzleme Vakfı (IWF) CEO’su, hükümetleri ve teknoloji şirketlerini yapay zekanın kötüye kullanımına karşı acilen harekete geçmeleri konusunda uyardı. CEO, “Gelecekte yapay zekanın kontrolsüz gelişiminin önüne geçilmezse, çocuk istismarı içeriklerinin önüne geçmek imkansız hale gelebilir.” dedi.