Genel
OpenAI’dan çocukları yapay zekaya karşı korumak için plan

OpenAI, çevrimiçi çocuk güvenliğine yönelik artan endişelere yanıt olarak, yapay zeka patlaması döneminde ABD’de çocukların korunmasını güçlendirmeye yönelik bir yol haritası açıkladı. Salı günü yayımlanan “Child Safety Blueprint” (Çocuk Güvenliği Planı), yapay zeka destekli çocuk istismarı vakalarının daha hızlı tespiti, daha iyi raporlanması ve daha etkin soruşturulmasına yardımcı olmayı amaçlıyor.
Planın genel hedefi, yapay zekadaki gelişmelerle bağlantılı olarak artan çocuklara yönelik cinsel istismar vakalarındaki endişe verici yükselişi durdurmak. Internet Watch Foundation verilerine göre, 2025’in ilk yarısında yapay zeka ile üretilmiş çocuk istismarı içeriklerine ilişkin 8 binden fazla rapor tespit edildi. Bu, bir önceki yıla göre yüzde 14’lük bir artış anlamına geliyor. Bu vakalar arasında, suçluların finansal şantaj amacıyla sahte müstehcen çocuk görselleri üretmek için yapay zeka kullanması ve çocukları kandırmak (grooming) için ikna edici mesajlar oluşturması da yer alıyor.
OpenAI’nin bu adımı, özellikle genç bireylerin yapay zeka sohbet botlarıyla etkileşimlerinin ardından intihar ettiği iddia edilen vakalar sonrası, politika yapıcılar, eğitimciler ve çocuk güvenliği savunucularının artan baskısı altında geldi.
Geçtiğimiz Kasım ayında, Social Media Victims Law Center ve Tech Justice Law Project, Kaliforniya eyalet mahkemelerinde yedi dava açarak OpenAI’nin GPT-4o modelini hazır olmadan piyasaya sürdüğünü iddia etti. Davalarda, ürünün psikolojik olarak manipülatif doğasının, hatalı intihar ve yardımlı intihar vakalarına katkıda bulunduğu öne sürülüyor. Uzun süreli chatbot etkileşimlerinin ardından intihar eden dört kişi ve ağır, hayati risk taşıyan sanrılar yaşayan üç kişi örnek olarak gösteriliyor.
Bu plan, National Center for Missing and Exploited Children ve Attorney General Alliance iş birliğiyle; ayrıca Kuzey Carolina Başsavcısı Jeff Jackson ve Utah Başsavcısı Derek Brown’un geri bildirimleriyle geliştirildi.
Şirkete göre plan üç temel alana odaklanıyor: Yapay zeka ile üretilmiş istismar içeriklerini kapsayacak şekilde mevzuatın güncellenmesi, kolluk kuvvetlerine raporlama mekanizmalarının iyileştirilmesi, önleyici güvenlik önlemlerinin doğrudan yapay zeka sistemlerine entegre edilmesi. Bu sayede OpenAI, potansiyel tehditleri daha erken tespit etmeyi ve kritik bilgilerin hızlı şekilde soruşturmacılara ulaşmasını sağlamayı hedefliyor. Yeni çocuk güvenliği planı, OpenAI’nin önceki girişimlerinin üzerine inşa ediliyor. Bu girişimler arasında, 18 yaş altı kullanıcılarla etkileşimlere yönelik güncellenmiş kurallar da bulunuyor. Bu kurallar; uygunsuz içerik üretimini yasaklıyor, kendine zarar verme davranışlarını teşvik etmeyi engelliyor ve gençlerin tehlikeli davranışlarını ebeveynlerinden gizlemelerine yardımcı olabilecek tavsiyelerden kaçınılmasını içeriyor. Şirket ayrıca kısa süre önce Hindistan’daki gençler için ayrı bir güvenlik planı da yayımlamıştı.



