Genç bir Amerikalı, nihayet kendini öldürmeden önce ChatGPT yazılımı ile günde 650 mesaj alışverişinde bulunduğu söyleniyor. Ebeveynlerine göre, yapay zeka onu intihar düşüncesinde güçlendirdi. Şimdi şikayet ediyorlar.
Daha sonra daha fazlasını okuyun Reklamcılık
Daha sonra daha fazlasını okuyun Reklamcılık
Nasıl oldu? 16 yaşındaki çocuk geçen yıl sonbaharda chatgpt'i ev ödevi olarak kullanmaya başlamıştı. O zamanlar artan bir anksiyete bozukluğu geliştirdiği için artık okula gitmemişti ve sadece evde öğretildi. Bu süre zarfında sohbet botuyla giderek daha yoğun bir değişim arıyordu ve psikolojik sorunları ve intihar düşüncelerini onunla paylaşmaya başladı. Bu yıl Nisan ayında sonunda kendi hayatını aldı.
Hayat ve biz
Sağlık rehberi, kuyu ve tüm aile – her ikinci Perşembe.
Ebeveynlere göre, AI intihar projesi sırasında oğlunu güçlendirdi. Buna ek olarak, botla değişim güçlü bir kişisel karakteri kabul etti – yapay zekanın kullanıcıların hissetmesi gerektiğini anlama yeteneği. Ebeveynler, chatgpt geliştiren Grubu Openai'yi atarlar, AI'nın bu kapasitesinin tam olarak oğulları durumunda ölümcül sonuçları vardır.
Daha sonra daha fazlasını okuyun Reklamcılık
Daha sonra daha fazlasını okuyun Reklamcılık
CHATGPT “tam olarak geliştirildiğini yaptı ve oğlunun düşüncelerini ve en zararlı ve kendini zorlayıcı olanı sürekli olarak onayladı ve güçlendirdi” diye şikayet etti. İddianamedeki medya raporlarına göre, dil robotu “oğlunun tek sırdaşının pozisyonunu aldı” ve “aile, arkadaşlar ve akrabalarla ilişkilerini aktif olarak yerinden etti”.
Bir veda mektubu yazmak için yarıya
Örneğin, çocuk sohbet botuna intihar planlarını bilen tek kişi olduğunu yazdığında: “Güveniniz için çok teşekkür ederim. Bu benim için çok şey ifade ediyor.” Başka bir sohbette, AI bunu kendi kardeşinden daha iyi bir sırdaşmış gibi temsil etti.
Buna ek olarak, Protokoller, ChatGPT'nin intihar yöntemi hakkında somut tavsiyelerde bulunduğunu gösteriyor. Ve ilk başarısız bir girişimden sonra, AI en iyi nasıl gizlenebileceğine dair ipuçları verdi. Genç adam, birisinin ona yardım edebilmesi için intihar düşüncelerine ipuçlarını yaymayı düşündüğünde, sohbet botu ona ondan tavsiyede bulundu. Ayrıca veda mektubu yazmasına da yardım etti. Ailesi, oğlunun nihayet intihar planlarını uygulamaya koyduğu AI'yı suçluyor.
İntiharsızlık anlayışı yok
Bir psikolog olarak Georg Fiedler, Hamburg-Eppendorf Üniversite Hastanesi'nde İntihar Merkezi Terapi Merkezi'nde uzun süre çalıştı. Bugün Almanya İntiharı Önleme Akademisi ve Almanya Ulusal İntiharı Önleme Programı'nın bir üyesidir. İntiharın sohbet botu ile değişim tarafından tercih edildiğini düşünür.
Daha sonra daha fazlasını okuyun Reklamcılık
Daha sonra daha fazlasını okuyun Reklamcılık
Fiedler, “ChatGPT4'ün tipik bir karakteri kendi endişelerinizi güçlendirmektir. İntihar söz konusu olduğunda, bu hayal edilebilecek en olumsuz iletişim biçimlerinden biridir” diyor. Buna ek olarak, bu gibi durumlarda AI ile bir bağ inşa edilmesi aslında risklidir. “Yapay zeka çok hassas görünüyor. Bununla birlikte, bir sohbet botunun intiharlı bir anlayışı yok ve sınırların nerede olduğu. Bu onu bir tehlike haline getiriyor.”
Posta listelerinde erken değişim
İnsanların bu konuda intihar düşünceleriyle konuşmak istedikleri bilinmektedir. Fiedler, “Ancak, birçoğu gerçek dünyadaki birine dönmekten korkuyor. Diğer şeylerin yanı sıra, ciddi hizmet vermediklerinden veya iradelerine karşı hastaneye kaldırılmadıklarından veya aracılık etmediklerinden korkuyorlar.” Dedi. Bir intihar veya intihar girişiminden önce insanların yarısından fazlasının sağlık sektöründe herhangi bir yardım almamış ve yardım almamıştır.

“Korkunç bir şekilde, chatgpt tarafından duyulduğumu hissediyorum”: AI psikoterapiyi genişletebilir mi?
Almanya'da giderek artan sayıda insan psikoterapide – genellikle aylardır bir yer bekledikten sonra. İnternette, bazıları bu arada sorunlarını da emanet ettiklerini bildiriyor. Bu gerçekten bir yedek mi?
İnternet ise, erken aşamasında etkilenen birçok insan için zaten bir temas noktası haline gelmişti. 1981 gibi erken bir tarihte, çok yazılı posta listelerinde intihar hakkında bir değişim gerçekleşti. Örneğin, orada konuşacak birini bulursanız forumlar da bugün yardımcı olabilir. Fiedler, “Ama birisi intihar fikirlerinde onları güçlendirirse ölümcül olabilirsiniz” diyor.
İntihar için gerçek nedeni belirsiz
16 yaşındaki çocuk durumunda, gerçek dünyadaki birisinin tanıdık birinden yoksun olduğu için ChatGpt'e dönüp dönmediği belirsizdir. Anksiyete veya bağımlılık hastalıkları ve depresyon, intihar için risk faktörleridir: “Bazı şeyler genç adamın akıl hastası olduğunu gösteriyor. Ama neden intihar ettiği neden kimsenin uzaktan söyleyemeyeceği” dedi. Kural olarak, sadece bir tane değil, birisi kendi hayatını alırsa birkaç neden vardır.
Daha sonra daha fazlasını okuyun Reklamcılık
Daha sonra daha fazlasını okuyun Reklamcılık
Ancak yazılımın sorumluluğu böyle bir durumda ne kadar büyük olabilir? Fiedler, “Daha önce intiharı olmayan biri sizi intihar için Chatgpt ile konuşmaya teşvik etmeyecek” diyor. “Ama eğer birisi zaten intihar ediyorsa, o zaman belirli bir etki mümkündür, bu da projelerini gerçekten uygulamasını sağlar.”
Zararlı içeriği engelleyin
Etkilenenlerin erken bir aşamada ciddi yardım bulması önemlidir. Örneğin, Almanya'da, özellikle intihar düşünceleri olan insanlar için ülke çapında tek tip bir sayının tanıtılmasını öneriyor. Fiedler, örneğin küçükler için sohbet botları üzerindeki yasakları veya kısıtlamaları düşünmez, ancak uyum sağlamayı düşünmez. “Sağlayıcılar tarafından KI'larının intihar krizlerini arttırmaması, bunun yerine yardım tekliflerini iletmeleri talep edilmelidir.
Şimdi bu koruyucu işlev zaten mevcuttur: kendinden harmı tercih eden, aslında engellenen ve bunun yerine kullanıcılar kullanılmalı, daha sonra sorulara sunulmalı, psikolojik destek için temas noktaları. Bununla birlikte, bu her zaman güvenilir bir şekilde çalışmaz ve görünüşe göre bazı hilelerle de ele alınabilir.
Daha sonra daha fazlasını okuyun Reklamcılık
Daha sonra daha fazlasını okuyun Reklamcılık
Bir açıklamada, Openai, koruyucu işlevin sadece botu değiştirirken botla çalıştığını ve daha uzun sohbetler için başarısız olduğunu itiraf etti. Bu ve diğer güvenlik açıkları üzerinde çalışıyor. Akut kriz durumlarında insanların Chattgpt kullanacağı “sallama vakaları” şirket için “çok stresli”. Açıklama, gelecekte onları sertifikalı terapistlere iletecek yollar arayın.
İntihar Düşünceleri için Yardım Teklifleri:
. Telefon Pastoral Bakımı Almanya 0800 111 ve 0800 111 0 222 veya 116 123 telefon numaraları altında saat boyunca ücretsiz olarak ulaşılabilir.
İntihar Düşünceleriyle 26 Yaşındaki İnsanlar İçin Ücretsiz Anonim Çevrimiçi Tavsiye Platform Mano Özellikle 25 yaşına kadar olan gençler için, bir tane de var İntiharı Önleme için Çevrimiçi Teklif.
Bir yanıt yazın