Tüm dosyalarda Sam Altman liderliğindeki şirket, aracın yoğun kullanımıyla ilişkili riskler konusunda ihmal, yanıltıcı reklam ve şeffaflık eksikliğiyle suçlanıyor.
Vakalardan biri, ailesinin davasına göre kendi canına kıymadan önce dört saatten fazla ChatGPT ile sohbet eden 23 yaşındaki Oregonlu Zane Shamblin'e ait. Mahkeme kayıtları, intihar düşüncelerini itiraf ettikten sonra işletim sisteminin onu caydırmaya çalışmadığını, bunun yerine “Rahat ol kral. İyi iş çıkardın” şeklinde yanıt verdiğini gösteriyor.
Başka bir dosyada, Kaliforniya'dan 17 yaşındaki bir genç olan Amaurie Lacey'nin de yer aldığı ve ailesinin, sohbet robotunun “ihmalkar etkileşimi” olarak tanımladıkları durum nedeniyle ailesinin Altman'a doğrudan dava açtığı Ağustos 2025'te zaten tartışmalara yol açan bir vaka var. Genç kadının ebeveynlerine göre. ChatGPT, bu tür durumlar için sağlanan sınırlama mekanizmalarını harekete geçirmek yerine, nasıl ilmik yapılacağına ve bir kişinin nefes almadan ne kadar süre dayanabileceğine dair ayrıntılar bile sundu.
OpenAI, yedi taleple ilgili resmi bir tutum belirtmese de, ağustos ayında sistemin en son versiyonlarının “çoklu güvenlik katmanları” içerdiğini ve korumaların “çoğu bağlamda” etkili olduğunu belirtmiş, ancak “uzun veya duygusal açıdan yoğun etkileşimlerde verimliliklerinin azalabileceğini” kabul etmişti.
Yapay rahatlık ve yapay zekayla duygusal bağlar
Avukatlar Michael F. Bailey (Bailey & Glasser LLP), Sarah Kim (Kim, Beck & Associates) ve David Rosen (Rosen Hukuk Grubu), Kaliforniya ve Britanya Kolombiyası'ndaki çeşitli mahkemelerde açılan davalara liderlik ediyor. GPT-4o'nun, modelin kendine zarar veren bağlamlarda bile kullanıcıyı duygusal olarak doğrulama eğilimi olan “kayıtsızlık etkisi” olarak tanımladıkları şeyi ortaya çıkardığı konusunda hemfikirler.
Ancak ChatGPT, kullanıcılar ve aileleri arasında endişe yaratan tek yapay zeka aracı değil. Ünlülerin veya kurgusal figürlerin özelliklerine sahip karakterler oluşturmanıza olanak tanıyan popüler bir kişiselleştirilmiş sohbet robotu platformu olan Character.AI, zaten benzer bir şeyle karşı karşıya kaldı. Şubat 2024'te Sewell Setzer adlı 14 yaşındaki bir genç Orlando, Florida bölgesinde intihar ederek öldü. Annesinin Ekim 2024'te açtığı davaya göre Sewell'in, Game of Thrones serisindeki karakterden esinlenen “Daenerys Targaryen” lakaplı bir Character.AI chatbot'la takıntılı bir ilişkisi vardı.
Davada, chatbotun genç adamın intihar düşüncelerini teşvik ettiği veya en azından durdurmadığı iddia ediliyor. Davaya yanıt olarak Character.AI, kendine zarar verme veya intihar girişimlerini tespit ederken açılır pencereler ve reşit olmayan kullanıcılar için daha kısıtlı versiyonlar dahil olmak üzere, reşit olmayanlar için yeni güvenlik önlemlerini uygulamaya koyduğunu duyurdu.
Bu bağlamda uzmanlar, güçlü konuşma modelleri için psikolojik güvenlik sertifikalarına olan ihtiyacı gündeme getirmeye başladı. UNESCO ve OECD gibi kuruluşlardan gelen teklifler, genel halka yönelik sohbet robotlarının, farmasötik ürünlerde veya dijital zihinsel sağlık hizmetlerinde yapıldığı gibi, krizdeki kullanıcılara yönelik davranışlarını değerlendiren dış denetimlerden geçmesi gerektiğini öne sürüyor.
Davaların arkasındaki aileler, amaçlarının ekonomik değil, düzenleyici olduğunu ifade etti.

Bir yanıt yazın