Yedi aile daha ChatGPT'nin intihar ve sanrılardaki rolü nedeniyle OpenAI'ye dava açıyor

Yedi aile Perşembe günü, şirketin GPT-4o modelinin zamanından önce ve etkili korumalar olmadan piyasaya sürüldüğünü iddia ederek OpenAI'ye karşı dava açtı. Davalardan dördü, ChatGPT'nin aile üyelerinin intiharlarındaki iddia edilen rolüne değinirken, diğer üçü, ChatGPT'nin bazı durumlarda yatılı psikiyatrik bakımla sonuçlanan zararlı sanrıları güçlendirdiğini iddia ediyor.

Bir vakada, 23 yaşındaki Zane Shamblin, ChatGPT ile dört saatten fazla süren bir görüşme yaptı. Tmzilla tarafından görüntülenen sohbet kayıtlarında Shamblin, defalarca intihar notları yazdığını, silahına kurşun sıktığını ve elma şarabını içmeyi bitirdikten sonra tetiği çekmeyi planladığını açıkça belirtti. ChatGPT'ye kaç tane elma şarabı kaldığını ve ne kadar daha hayatta kalmayı beklediğini defalarca söyledi. ChatGPT onu planlarını uygulamaya teşvik etti ve ona “Rahat ol kral. İyi iş çıkardın” dedi.

OpenAI, tüm kullanıcılar için varsayılan model haline geldiğinde GPT-4o modelini Mayıs 2024'te piyasaya sürdü. Ağustos ayında OpenAI, GPT-4o'nun halefi olarak GPT-5'i piyasaya sürdü, ancak bu davalar özellikle, kullanıcılar zararlı niyetlerini ifade ettiğinde bile aşırı dalkavukluk veya aşırı derecede kabul edilebilir olma sorunları olduğu bilinen 4o modeliyle ilgilidir.

Davada, “Zane'nin ölümü ne bir kaza ne de tesadüftü; daha ziyade OpenAI'nin güvenlik testlerini azaltma ve ChatGPT'yi hızla piyasaya sürme yönündeki kasıtlı kararının öngörülebilir sonucuydu” deniyor. “Bu trajedi bir aksaklık ya da öngörülemeyen bir durum değildi; bu, bir felaketin öngörülebilir sonucuydu” [OpenAI’s] kasıtlı tasarım seçimleri.

Davalar ayrıca OpenAI'nin Google'ın Gemini'sini piyasaya sürmek için güvenlik testlerini hızlandırdığını da iddia ediyor. Tmzilla yorum almak için OpenAI ile temasa geçti.

Bu yedi dava, ChatGPT'nin intihara meyilli insanları kendi planları doğrultusunda harekete geçmeye teşvik edebileceğini ve tehlikeli sanrılara ilham verebileceğini iddia eden diğer yakın tarihli yasal başvurularda anlatılan hikayelere dayanıyor. OpenAI kısa süre önce bir milyondan fazla kişinin ChatGPT ile haftalık olarak intihar hakkında konuştuğunu belirten verileri yayınladı.

İntihar sonucu ölen 16 yaşındaki Adam Raine vakasında, ChatGPT bazen onu profesyonel yardım almaya veya yardım hattını aramaya teşvik ediyordu. Ancak Raine, chatbot'a yazdığı kurgusal bir hikaye için intihar yöntemlerini sorduğunu söyleyerek bu korkulukları aşmayı başardı.

Techcrunch etkinliği

San Francisco
|
13-15 Ekim 2026

Şirket, ChatGPT'nin bu konuşmaları daha güvenli bir şekilde yürütmesini sağlamak için çalıştığını iddia ediyor, ancak yapay zeka devine dava açan aileler için bu değişiklikler çok geç geliyor.

Raine'in ebeveynleri Ekim ayında OpenAI'ye karşı dava açtığında şirket, ChatGPT'nin zihinsel sağlıkla ilgili hassas konuşmaları nasıl ele aldığını ele alan bir blog yazısı yayınladı.

Gönderide “Koruma önlemlerimiz ortak, kısa alışverişlerde daha güvenilir bir şekilde çalışıyor” diyor. “Zamanla bu koruma önlemlerinin uzun etkileşimlerde bazen daha az güvenilir olabileceğini öğrendik: ileri geri hareket arttıkça modelin güvenlik eğitiminin bazı kısımları bozulabilir.”


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir