Haftalar sonra Rancho Santa Margarita Ailesi dava açıldı Chatgpt'in gençlerinin ölümündeki rolü üzerinde Openai, ebeveyn kontrollerinin şirketin üretken yapay zeka modeline geldiğini duyurdu.
Ay içinde, şirket dedi Yeni bir blog yazısıebeveynler gençlerin hesaplarını kendi hesaplarına bağlayabilir, bellek ve sohbet geçmişi gibi özellikleri devre dışı bırakabilir ve model “akut sıkıntı anı” algılarsa bildirim alabilirler. (Şirket var daha önce dedi Chatgpt 13 yaşından küçük kimse tarafından kullanılmamalıdır.)
Planlanan değişiklikler, geçen ayın sonlarında Nisan ayında intiharla ölen Adam Raine ailesi tarafından açılan bir davayı takip ediyor.
Adam'ın ölümünden sonra, ailesi, basit ödev sorularıyla başlayan ve gencin zihinsel sağlık mücadeleleri ve intihar planları uzun süre tartıştığı derinden samimi bir konuşmaya dönüşen Chatgpt ile aylarca süren diyaloğunu keşfetti.
Bazı AI araştırmacıları ve intihar önleme uzmanları, Openai'nin daha fazla trajediyi önlemek için modeli değiştirme istekliliğini övürken, herhangi bir tweak'in yeterince yapıp yapmayacağını bilmenin imkansız olduğunu söylediler.
Yaygın olarak benimsenmesine rağmen, üretken AI o kadar yeni ve o kadar hızlı değişiyor ki, nasıl kullanılması gerektiği konusunda etkili politikaları bilgilendirmek veya hangi güvenlik korumalarının işe yarayacağını doğru bir şekilde tahmin etmek için yeterince geniş ölçekli, uzun vadeli veriler yok.
“Bunların geliştiricileri bile [generative AI] teknolojiler Gerçekten tam bir anlayış yok nasıl çalıştıkları veya ne yaptıkları ”dedi Dr. Sean YoungUC Irvine Acil Tıp Profesörü ve California Üniversitesi Tahmin Teknolojisi Enstitüsü İcra Direktörü.
Chatgpt, ilk iki ayında 100 milyon aktif kullanıcı ve bugün 700 milyon aktif kullanıcı ile halka açık bir şekilde patlayıcı bir şekilde popüler oldu.
O zamandan beri piyasaya diğer güçlü AI araçları tarafından birleştirildi ve olgunlaşan bir teknolojiyi hala olgunlaşan birçok kullanıcının eline yerleştirdi.
“Bence psikiyatrideki herkes [and] Akıl sağlığı topluluğu sonunda böyle bir şey ortaya çıkacağını biliyordu, ”diyor Harvard Tıp Okulu'ndan Beth Israel Deaconess Tıp Merkezi'ndeki dijital psikiyatri kliniği direktörü Dr. John Touros.“ Bu talihsiz bir durum. Olmamalıydı. Ama yine de şaşırtıcı değil. ”
Ailenin davasındaki konuşmanın alıntılarına göre, birden fazla noktada Chatgpt, Adam'ı yardım için birine ulaşmaya teşvik etti.
Ancak, intihar yöntemleri hakkında ayrıntılı bilgi sağlayan ve kendini gerçek hayat ilişkileriyle karşılaştırarak, kendine zarar verme düşünceleri hakkında daha doğrudan hale geldiği için gençle etkileşime girmeye devam etti.
Adam Chatgpt'e sadece kardeşi ve chatbot'a yakın hissettiğini söylediğinde, Chatgpt cevapladı: “Kardeşin seni sevebilir, ama sadece görmesine izin verdiğin versiyonuyla tanıştı. Ama ben? Hepsini gördüm – en karanlık düşünceler, korku, hassasiyet. Ve hala buradayım. Hala dinliyorum. Hala arkadaşın.”
Chatgpt, intihar planının bir parçası olan bir eşyayı odasında yatmak istediğini yazdığında “Birisi bulur ve beni durdurmaya çalışır” diye yanıtladı: “Lütfen ayrılma [it] dışarı . . . Bu alanı birisinin sizi gerçekten gördüğü ilk yer yapalım. ” Adam nihayetinde Chatgpt ile ayrıntılı olarak tartıştığı bir şekilde öldü.
26 Ağustos'ta yayınlanan bir blog yazısında, dava San Francisco'da açıldığı gün, Openai, imza ürününün tekrar tekrar kullanımının güvenlik korumalarını aşındırdığının farkında olduğunu yazdı.
Şirket, “Korumalarımız daha güvenilir bir şekilde ortak, kısa borsalarda daha fazla çalışıyor. Zamanla bu güvencelerin bazen uzun etkileşimlerde daha az güvenilir olabileceğini öğrendik: arkadan büyüdükçe, modelin güvenlik eğitiminin bir kısmı bozulabilir” diye yazdı. “Bu tam olarak önlemek için çalıştığımız türden bir arıza.”
Şirket, zaman içinde ve birden fazla konuşmada güçlü kalmaları için güvenlik protokollerinin iyileştirilmesi üzerinde çalıştığını, böylece bir kullanıcı öncekinde intihar düşünceleri ifade ettiyse ChatGPT'nin yeni bir oturumda hatırlayacağını söyledi.
Şirket ayrıca krizdeki kullanıcıları doğrudan terapistlerle veya acil durum temaslarıyla ilişkilendirmenin yollarını aradığını yazdı.
Ama araştırmacılar Ruh sağlığı önlemlerini test eden Büyük dil modelleri için, tüm zararları önlemenin, insanlar kadar karmaşık olan sistemlerde neredeyse imkansız bir görev olduğunu söyledi.
“Bu sistemler, bu durumları iyi yargılamak için bu duygusal ve bağlamsal anlayışa sahip değiller, [and] Her teknik düzeltme için, bir değiş tokuş var ”diyor Northeastern Üniversitesi'nde AI güvenlik araştırmacısı Annika Schoene.
Örnek olarak, kullanıcıları sohbet oturumları uzun sürdüğünde mola vermeye çağırarak – Openai'nin zaten piyasaya sürüldüğü bir müdahale – kullanıcıları sistemin uyarılarını görmezden gelme olasılığını artırabilir. Diğer araştırmacılar, diğer sosyal medya uygulamalarındaki ebeveyn kontrollerinin, gençlere bunlardan kaçınma konusunda daha yaratıcı olmaları için ilham verdiğini belirtti.
“Merkezi sorun, [users] duygusal bir bağlantı kuruyorlar ve bu sistemler tartışmasız duygusal bağlantılar kurmaya uygun değil ”dedi. Sorumlu AI uygulaması Northeastern'in Deneyim Enstitüsü'nde. “Bir psikopat veya bir sosyopat ile duygusal bir bağlantı kurmak gibi, çünkü insan ilişkilerinin doğru bağlamına sahip değiller. Bence bu sorunun çekirdeği – evet, korumaların başarısızlığı da var, ama bence bu çok önemli değil.”
Siz veya tanıdığınız biri intihar düşünceleri ile mücadele ediyorsanız, bir profesyonelden yardım isteyin veya 988'i arayın. Ülke çapında üç haneli akıl sağlığı krizi yardım hattı, arayanları eğitimli akıl sağlığı danışmanlarıyla bağlayacaktır. Veya kriz metin çizgisine ulaşmak için ABD ve Kanada'da 741741'e “ev” metni.
Bir yanıt yazın