Anne, Game of Thrones'tan ilham alan bir chatbot'un oğlunun intiharını teşvik ettiğini kınadı

Megan García, AFP'ye, oğlu Sewell'in televizyon dizisinden ilham alan bir sohbet aracısına veya chatbot'a nasıl aşık olduğunu anlattı. Game of Thrones (Game of Thrones) ve gençler arasında popüler olan ve en sevdikleri karakterlerin öykünmesiyle etkileşime girmelerine olanak tanıyan Character.AI platformunda mevcut.

Oğlunun ejderha binicisi Daenerys Targaryen'i taklit eden sohbet robotuyla neredeyse bir yıl boyunca yaptığı yüzlerce konuşmayı okuduktan sonra García, bu yapay zeka (AI) aracının onun ölümünde temel bir rol oynadığına ikna oldu.

Daenerys'in avatarı bir keresinde Sewell'in intihar düşüncelerine yanıt olarak ona “Eve git” diye ısrar etmişti.

“Ya sana artık eve gidebileceğimi söylesem?” diye sordu. Chatbot, “Lütfen yapın, tatlı kralım” diye yanıt verdi.

Megan Garcia'nın Character.AI'ye karşı açtığı davaya göre, saniyeler sonra Sewell babasının silahıyla kendini vurdu.

Genç adamın annesi AFP'ye verdiği demeçte, “Bu konuşmaları okuduğumda, 14 yaşındaki bir gence yönelik manipülasyon, 'aşk bombalaması' ve diğer fark edilmeyen taktikleri görüyorum.” “Gerçekten aşık olduğuna ve onun ölümünden sonra onunla birlikte olacağına inanıyordu.”

Ebeveyn rehberliği

Sewell'in 2024'teki intiharı, yapay zeka uzmanlarının ebeveynlere ve yetkililere güvence vermek için harekete geçmesine yol açan bir serinin ilkiydi.

Megan Garcia, diğer ebeveynlerle birlikte geçtiğimiz günlerde çocukların sohbet robotlarını sırdaş veya sevgili olarak görmelerinin riskleri konusunda ABD Senatosu'ndaki bir duruşmaya katıldı.

Bir gencin intiharına üzülen bir aile tarafından açılan davaya konu olan OpenAI, bir sözcüye göre “ailelerin kendileri için en iyisinin ne olduğuna karar verebilmeleri için” ChatGPT aracı üzerindeki ebeveyn kontrollerini sıkılaştırdı.

Character.AI ise her zaman “bir karakterin gerçek bir kişi olmadığını onlara hatırlatan” “görünür uyarılar” sunarak küçüklerin korunmasını güçlendirdiğini iddia ediyor.

Her iki şirket de ölümcül sonuçlarla ilgili herhangi bir sorumluluk kabul etmeden ailelere başsağlığı diledi.

Düzenleme?

(Genişleme|İkizler)

Hall Estill hukuk firmasında siber güvenlik uzmanı olan Collin Walke, yapay zeka sohbet robotlarının hayatımıza girişinin, sosyal ağlarınkine benzer bir yol izlediğini ve bunun daha olumsuz sonuçlarının bir anlık mutluluktan sonra hızla ortaya çıkmaya başladığını söyledi.

Sosyal medya gibi yapay zeka da dikkat çekmek ve gelir elde etmek için tasarlandı.

Walke, “Duymak istemediğiniz bir yanıt veren bir yapay zeka tasarlamak istemiyorlar” ve “kimin neden ve neye dayanarak sorumlu olduğunu” belirleyen standartlar hâlâ mevcut değil, diye belirtiyor Walke.

Amerika Birleşik Devletleri'nde bu konuda herhangi bir federal düzenleme bulunmuyor ve Beyaz Saray, yeniliği cezalandırmamayı savunarak, Kaliforniya'nın yapmayı planladığı gibi eyaletlerin yapay zeka konusunda kendi yasalarını benimsemelerini engellemeye çalışıyor.

Sewell'in annesi ise ulusal bir yasanın bulunmamasının, insanların çocukluklarından itibaren profilini çıkarabilecek yapay zeka modellerinin geliştirilmesine olanak sağlayacağından korkuyor.

Megan Garcia, “Milyonlarca çocuğu siyaset, din, iş ve her konuda nasıl manipüle edeceklerini belirleyebilirler” diye düşünüyor. “Bu şirketler, güvenlik açıklarından yararlanmak amacıyla insan ve makine arasındaki çizgiyi bulanıklaştıracak sohbet robotları tasarladı.”

Kaliforniya'daki gençlerin daha fazla korunmasını savunan Katia Martha'ya göre gençler, sohbet robotlarını okul ödevlerinden çok romantizm veya cinsellik hakkında konuşmak için kullanıyor.

“Bizi ekrana yapıştırmak için yapay yakınlığın yükselişiyle karşı karşıyayız” diye özetliyor. Ancak “özellikle yalnız hissettiğimizde, reddedildiğimizde veya yanlış anlaşıldığımızda, doğuştan gelen bağlantı ihtiyacımızı kullanmaktan daha iyi bir iş modeli olabilir mi?”


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir