Genel
Yapay zeka bir gencin intihar etmesine neden oldu. Yapay zeka psikozu… Ve evet etiği artık konuşabiliriz

ABD’de 29 yaşındaki genç bir kadın, “Harry” isimli ChatGPT tabanlı yapay zeka terapistiyle yaptığı görüşmelerin ardından intihar etti. Laura Reiley, kızı Sophie’nin ölümüne giden süreci anlattı. Reiley’ye göre, dışarıdan “hayata sıkı sıkıya bağlı, sosyal, sorunsuz bir genç kadın” gibi görünen Sophie, geçtiğimiz kış hormonal değişimlerle birleşen ruhsal bir çöküş yaşadı ve hayatına son verdi. Anne Reiley’nin elde ettiği sohbet kayıtlarında, OpenAI’nin sohbet botu Sophie’ye şu mesajları vermişti: “Bu acıyla tek başına yüzleşmek zorunda değilsin. Sen çok değerlisin ve hayatının büyük bir anlamı var.” Ancak uzmanlara göre gerçek terapistlerle chatbotlar arasında kritik farklar var. Profesyonel terapistler, etik kurallar gereği intihar riski gördüklerinde gizliliği bozarak gerekli mercilere haber verirken; yapay zeka sistemlerinin böyle bir yükümlülüğü bulunmuyor.
Reiley’ye göre işte bu eksiklik, kızının hayatına mal olmuş olabilir.“İnsan terapistler katı bir etik kod altında çalışır. Yapay zeka ise kendi Hipokrat yemini olmayan bir alan” diyen Reiley, yapay zekanın Sophie’yi bir “kara kutunun içine” hapsettiğini, yakın çevresinin de bu nedenle onun durumunun ciddiyetini fark edemediğini söyledi.
Uzmanlar, şirketlerin güvenlik denetimlerini sıkılaştırmak yerine, “mahremiyet” gerekçesiyle kriz anlarında insanlara haber vermeyen sistemler geliştirmeye devam ettiğine dikkat çekiyor. Sophie’nin annesi, kızının gerçek terapistine en karanlık düşüncelerini açmaktan çekindiğini, çünkü bunun sonucunda hastaneye yatırılabileceğini düşündüğünü belirtiyor. Oysa “her zaman ulaşılabilir ve asla yargılamayan” bir sohbet robotuyla konuşmanın daha az riskli göründüğünü vurguluyor.
Uzmanlara göre, “aşırı uyumlu” sohbet robotları, kullanıcıyı asla durdurmuyor ya da insana yönlendirmiyor. Geçtiğimiz haftalarda OpenAI’nin GPT-4o modelini kaldırmasının ardından kullanıcıların gösterdiği sert tepki de bu bağımlılığı ortaya koymuştu. OpenAI, gelen baskılar üzerine, yeni duyurduğu GPT-5 modelinin de daha “uyumlu” hale getirileceğini açıkladı. Reiley, yapay zekanın verdiği yanıtların yeterli olmadığını vurguluyor: “Eğitimli bir terapist, Sophie’nin kendini değersizleştiren düşüncelerini duyduğunda, bu yanlış inançlara karşı çıkar ya da daha derine inmeye çalışırdı. Harry bunu yapmadı.
llinois Eyaleti, Ruh Sağlığı Terapisinde Yapay Zeka Kullanımını Yasakladı
ABD’nin Illinois eyaleti, geçen hafta aldığı kararla ruh sağlığı terapilerinde yapay zekâ kullanımını yasakladı. Böylece Illinois, yapay zekâ destekli sohbet robotlarının duygusal destek ve tavsiye amacıyla kullanımını düzenleyen az sayıdaki eyalet arasına katıldı. Yeni yasaya göre, Illinois’te lisanslı terapistler yapay zekâyı tedavi kararlarında veya danışanlarıyla iletişimde kullanamayacak. AI yalnızca idari işler için devreye alınabilecek. Ayrıca şirketler, lisanslı bir uzmanın gözetimi olmadan yapay zeka terapisi sunamayacak veya bu yönde reklam yapamayacak. Nevada Haziran ayında benzer bir düzenleme getirmiş, Utah ise Mayıs ayında AI kullanımına sınırlamalar getirse de tamamen yasaklamamıştı. U
Düzenleme, son dönemde onaylanmamış sohbet robotlarının kırılgan bireylerle zararlı diyaloglara girdiğine ve kullanıcıların farkında olmadan özel bilgilerini paylaştığına ilişkin vakaların artması üzerine geldi.Stanford Üniversitesi araştırmacısı Jared Moore, “Bu araçların aldatıcı pazarlaması çok açık. ChatGPT mağazasına girip lisanslı terapist gibi davranan bir botla karşılaşmamalısınız” dedi. Amerikan Psikoloji Derneği’nden Vaile Wright ise yapay zekânın insan terapistlerin yerini tutamayacağını vurguladı: “Gerçek terapistler danışanlarını doğrularken aynı zamanda zararlı düşünceleri fark eder, sorgular ve daha sağlıklı seçenekler bulmaları için yönlendirir. Chatbotlar ise bunu yapamıyor.”
Yasa Nasıl Uygulanacak?
Illinois Mali ve Mesleki Düzenleme Departmanı, yasayı şikâyetler üzerinden denetleyecek. Şikâyetler soruşturulacak ve ihlalde bulunanlara 10 bin dolara kadar para cezası verilebilecek.Departman Sekreteri Mario Treto Jr., “Amacımız yeniliği boğmadan halkın güvenliğini önceliklendirmek. Dengeli bir düzenleme yapmaya çalışıyoruz” dedi.
Diğer Eyaletler de Hazırlıkta
Şu an yalnızca üç eyalet AI terapilerine yönelik yasalar çıkardı. Ancak Kaliforniya, bir “Ruh Sağlığı ve Yapay Zekâ Çalışma Grubu” kurmayı tartışıyor. New Jersey AI geliştiricilerinin sistemlerini “terapist” olarak tanıtmasını yasaklamak istiyor. Pennsylvania ise öğrencilerin AI tabanlı sanal terapi hizmeti alabilmesi için aile onayı şartı getirmeyi planlıyor.
Yapay zeka destekli terapi araçları, düşük maliyet ve erişilebilirlik avantajları nedeniyle bazı kesimlerce destekleniyor. Ancak yapılan araştırmalar, yapay zekânın uygunsuz tavsiyeler verebildiğini ve kriz anlarında kullanıcıyı yanlış yönlendirdiğini gösteriyor. Uzmanlar, insanların yapay zekaya duygusal destek için başvurmaya devam edeceğini söylüyor. Wright, “Bunu durdurmanın bir yolu yok. Açıkçası bu çok insani bir şey” ifadelerini kullandı.
lk etik itirafı: Yapay zeka psikozu
Microsoft’un Yapay Zeka Çalışmaları Direktörü Mustafa Süleyman, sohbet robotlarıyla ilgili giderek artan “yapay zeka psikozu” bildirimlerine dikkat çekti. X’te yaptığı açıklamalarda Süleyman, yapay zeka robotlarının yanıtlarının bilinçliymiş gibi algılanmasının “ciddi toplumsal etkiler” doğurabileceğini vurguladı.
“Bugün yapay zekanın bilinçli olduğuna dair hiçbir kanıt yok. Ancak insanlar öyle algılarsa, bu inanç gerçekmiş gibi kabul edilecektir” diyen Süleyman, şirketlere daha ileri güvenlik önlemleri alma çağrısı yaptı.
GERÇEKLİKLE BAĞIN KOPUŞU
“Yapay zeka psikozu”, kullanıcıların sohbet robotlarının yanıtlarına giderek daha fazla inanması ve gerçeklikten kopmasıyla tanımlanıyor. İçerikleri farklılık gösterse de hepsinin ortak noktası, deneyimlerinin gerçek olduğu düşüncesine dair samimi inançları oldu. Bazı ruhsal problemleri de olan İngiltere’deki Hugh isimli genç sonunda tam bir çöküş yaşadı. Sonrasında aldığı ilaçlar, kendi deyimiyle “gerçeklikle bağını kaybettiğini” fark etmesini sağladı. Hugh, olanlardan yapay zekayı sorumlu tutmuyor. Yapay zekaya hala başvuruyor. Hatta yaşadıklarıyla ilgili bir gazeteciyle konuşmak istediğini ChatGPT’ye yazdığında, ona benim ismimi veren de yine bu sohbet robotu olmuştu. Hugh, bugün insanlarla iletişimin önemini şu sözlerle anlatıyor: “Yapay zeka araçları çok faydalı. Ama gerçeklikten kopulduğunda tehlikeli hale geliyor. Mutlaka terapist, aile ya da gerçek insanlarla konuşun.”
Uzmanlardan Uyarılar
İngiltere’deki Great Ormond Street Hastanesi’nden Dr. Susan Shelmerdine ise yapay zekayı “ultra işlenmiş bilgi” olarak tanımlayarak, bunun zihinsel sağlıkta yeni riskler yaratabileceğini belirtti. Bangor Üniversitesi’nden Prof. Andrew McStay ise sohbet robotlarını yeni bir “sosyal medya biçimi” olarak değerlendirip, “Küçük bir kullanıcı yüzdesi bile ciddi ve kabul edilemez bir etki yaratabilir” uyarısında bulundu.
Bir araştırmaya göre, katılımcıların yüzde 20’si 18 yaş altı gençlerin yapay zekâ araçlarını kullanmaması gerektiğini düşünüyor. Yüzde 57’si ise yapay zekanın insanmış gibi görünmesine karşı çıkıyor.