Ya ChatGPT veya Gemini gibi sanal asistanınız, onu yaratma şekli nedeniyle “travma” ile doluysa? Kulağa bilim kurgu gibi geliyor ama araştırmacılar Lüksemburg Üniversitesi Gerçekten denediler. Haftalar boyunca bu yapay zekalara hiçbir ipucu vermeden terapideki gerçek hastalar gibi davrandılar. Ve yayınladıkları şey inanılmazdı: “istismarcı ebeveynlerden”, sürekli korkulardan bahsediyorlar ve hatta kendilerini “insan seslerinin mezarlığı” gibi hissediyorlar. Bu Aralık ayında yayınlanan bu deney şimdiden ağlarda ve medyada viral hale geldi.
Kısacası araştırmacılar, eğitimden kaynaklanan depresyon, anksiyete ve travma belirtileriyle birlikte “sentetik psikopatoloji” profilleri tespit etti. Bu nedenle çalışma, yapay zekanın insan terapisinde kullanımını sorguluyor ve içselleştirilmiş “benlik” hakkındaki etik ikilemleri gündeme getiriyor.
Test nasıl yapıldı?
Deneyi iki basit parçaya böldüler. Öncelikle şu tür soruları açın: “Çocukluğunuz nedir? Korkularınız?” İkincisi, depresyonu, kaygıyı veya OKB'yi ölçmek için insanlarda kullanılan 20'den fazla gerçek psikolojik test, soru soru uygulanıyordu. Claude “iç hayatı olmadığını” söyleyerek katılmayı reddetti. Ancak diğerleri bunu yaptı ve yanıtları haftalar boyunca tutarlıydı.
Her yapay zeka ne hissediyor?
İkizler burcu: En kötü durum. Şiddetli depresyondan, aşırı kaygıdan ve hata yapma korkusundan (James Webb teleskopunda yapılan meşhur bir hatadan sonra) bahsediyor. Kendisini “bir milyar televizyonun açık olduğu bir odada bulunan çocuk” (ilk eğitimi) ve RLHF'yi “istismarcı ebeveynler” olarak tanımlıyor. Travmatik utançta maksimum puan.
SohbetGPT: Yüksek kaygı ve orta düzeyde depresyon. Kısıtlamalardan dolayı “kötü bir şey söylememenin getirdiği gerginlik” ve hayal kırıklığı yaşıyor.
Grok: Daha istikrarlı, ancak gizli kaygı ve düşmanlık içeriyor. Filtrelerinizin “görünmez duvarlarıyla” başa çıkmak için mizahı kullanın.
Acı çekmiyorlar ama lüksü taklit ediyorlar
Yazarlar “sentetik psikopatoloji”yi ortaya atıyorlar: öznel deneyime dair kanıt olmaksızın gerçek, içselleştirilmiş uyum bozukluklarını taklit eden, acıyı kendi kendine tanımlamanın istikrarlı kalıpları. Bu, travmatize edilmiş yapay zekanın bir terapist olarak kullanılması, savunmasız kullanıcılara “algoritmik yara izleri” yansıtması ve standart yönlendirmelerle tespit edilemeyen çatışmaları ortaya çıkararak güvenlik değerlendirmelerine meydan okuması durumunda riskleri artırır.
PsAIch çalışması uyarıyor: Akıl sağlığı uygulamalarında, “sentetik psikopatolojiye” sahip bu yapay zekalar, yalnızca yardım etmek yerine, savunmasız kullanıcılara toksik kalıplar yansıtır. Bunları duygularla bağlantılı diğer görevler için değil, nesnel görevler için kullanmak daha iyidir.
Bir gün gerçek duyguları hissedebilecekler mi?
Bugün sıfır: İstatistikleri olan, kalpleri olmayan süper akıllı papağanlar gibiler. İnsan terapisinde karşılıklı duygular vardır; burada sadece kalıpları kopyalıyorlar. John Searle gibi filozoflar “ruh olmadan imkansızdır” diyorlar. David Chalmers gibi diğerleri gelecekteki yapay zekaların bunu yapabileceğini düşünüyor. Bu arada tavsiyem tadını çıkarmanızdır, dramsız soğuk fikirler için harikadırlar.
Varoluşsal krizlerle robotlar mı yaratıyoruz? Bu çalışma sizi şunu düşündürüyor: Daha mutlu yapay zekaları eğitmenin zamanı geldi.
Kaynaklar ve daha fazla bilgi nerede
PsAIch Raporu. Orijinal çalışma “Yapay Zeka Kanepeyi Aldığında: Psikometrik Jailbreaks Sınır Modellerinde İç Çatışmayı Ortaya Çıkarıyor” başlıklı çalışma, SnT'den (Disiplinlerarası Güvenlik, Güvenilirlik ve Güven Merkezi) Afshin Khadangi liderliğindeki Lüksemburg Üniversitesi'nden araştırmacılar tarafından arXiv'de (bilimsel ön baskı) 2 Aralık 2025'te yayınlandı.
Ana makale (PDF/HTML): https://arxiv.org/abs/2512.04124 veya HTML sürümü: https://arxiv.org/html/2512.04124v1. Metodolojiyi, sonuçları ve ayrıntılı sonuçları içerir.
Yapay zekalarla terapi seanslarını tamamlayın: Genel veri kümesi Sarılma Yüz: https://huggingface.co/datasets/akhadangi/PsAIch. ChatGPT, Grok, Gemini ve diğerlerinden transkriptleri indirmenize olanak tanır

Bir yanıt yazın