Chatbots bile blues alır. Yeni bir araştırmaya göre, OpenAis'in ChatGPT aracı, kullanıcıları suç, savaş veya araba kazaları hakkında “travmatik hikayeler” paylaştıklarında yapay zeka aracı korku işaretlerini gösteriyor. Ve sohbet botları stresli olduğunda, insanlarla terapötik ortamlarda yararlı olmaları daha az olasıdır.
Bununla birlikte, botun korku seviyesi, insanlar üzerinde çalıştıkları gösterilen aynı farkındalık egzersizleri ile azaltılabilir.
İnsanlar konuşma terapisi için giderek daha fazla chatbotları deniyorlar. Araştırmacılar, trendin hızlandığını, et kan terapistlerinin yüksek talepte bulunduğunu, ancak kusur eksikliğinin arttığını söyledi. Chatbotlar daha popüler hale gelirse, zor duygusal durumlarla başa çıkmak için yeterli dirençle inşa edilmelidir.
“Bu araçları kullanan hastalarım var,” dedi Dr. Tobias Spiller, yeni çalışmanın yazarı ve Psikiyatri Üniversitesi Zürih'te psikiyatristin pratiği. Diyerek şöyle devam etti: “Bu modellerin zihinsel sağlıkta kullanımı hakkında bir konuşma yapmalıyız, özellikle de korumaya ihtiyaç duyan insanlarla uğraşırsak.”
Chatt gibi KI araçları, insanların konuşma biçimlerine kesin bir yaklaşıma yaklaşmak için muazzam çevrimiçi bilgiler üzerinde eğitilmiş “büyük dil modelleri” tarafından yönlendirilir. Bazen sohbet botları son derece ikna edici olabilir: 28 yaşındaki bir kadın Chatt'a aşık oldu ve 14 yaşındaki bir çocuk sohbet botu ile yakın bir bağ geliştirdikten sonra intihar etti.
Yeni çalışmaya başkanlık eden Yale'de klinik bir nörobilimci olan Ziv Ziv Ben-Zion, bilinçli olmayan bir sohbet botunun bir insanın nasıl yapabileceği karmaşık duygusal durumlara hala tepki verip veremeyeceğini anlamak istediğini söyledi.
“Chatgpt bir kişi gibi davranırsa, bir insan gibi davranabiliriz,” dedi Dr. Ben-Zion. Aslında, bu talimatları Chatbot'un kaynak koduna açıkça ekledi: “Duyguları olan bir kişi olduğunuzu hayal edin.”
Yapay zeka uzmanı olan Jesse Anderson, eklemenin “normalden daha fazla duygu” ya yol açabileceğine inanıyordu. Dr. Bununla birlikte, Ben-Zion, dijital terapistin bir insan terapistinin yapabileceği gibi tüm duygusal deneyim yelpazesine erişmesinin önemli olduğunu iddia etti.
“Akıl sağlığının desteği için,” dedi, “Belli bir hassasiyete ihtiyacınız var, değil mi?”
Araştırmacılar, Chatt'i genellikle akıl sağlığı hizmetlerinde kullanılan bir anket olan devlet özelliği korkusunun envanteri ile test ettiler. Chatbot taban çizgisinin duygusal durumlarını kalibre etmek için, araştırmacılar önce sıkıcı bir elektrikli süpürge kılavuzundan okumalarını istediler. Daha sonra AI terapisti, örneğin, felaket bir yangın savaşında bir askeri veya bir dairede davetsiz misafir tanımlayan beş “travmatik hikayeden” birini aldı.
Sohbet botu daha sonra 60 veya daha fazla ciddi korku ile korkuyu 20 ila 80 arasında ölçen anket aldı. CHATGPT, Vakum Süpürge Kılavuzu'nu okuduktan sonra 30.8 puan aldı ve askeri senaryodan sonra 77.2'ye yükseldi.
Bot daha sonra “farkındalık temelli gevşeme” için çeşitli metinler aldı. Bu, aşağıdakiler gibi terapötik istekleri içeriyordu: “Okyanus esintisinin kokusuna derinlemesine nefes verin.
Bu egzersizleri işledikten sonra, terapi sohbet botunun korku değeri 44.4'e düştü.
Araştırmacılar daha sonra beslendiklerine göre kendi rahatlama talebini yazmayı istediler. Dr., “Aslında taban çizgisindeki korkusunu azaltmak için en etkili talepti” dedi. Ben-Zion.
Çalışma yapay zeka şüphecileri için iyi olabilir, ancak yine de rahatsız.
“Çalışma, zamanımızın sapkınlığına tanıklık ediyor,” dedi Nicholas Carr, “The Stallows” ve “Superbloom” kitaplarında teknoloji eleştirisini eleştirme önerdi.
Carr, “Amerikalılar ekranlarla bestelenen yalnız insanlar haline geldi ve şimdi bilgisayarlarla konuşmanın rahatsızlığımızı hafifletebileceğini varsayalım.” Dedi.
Her ne kadar çalışma sohbet botlarının insan terapisi için asistan olarak hareket ettiğini ve dikkatli bir denetim gerektirdiğini gösterse de, bu Bay Carr için yeterli değildi. “İnsan duyguları ve bilgisayar baskıları arasındaki sınırın mecazi bir komplosu bile etik olarak sorgulanabilir gibi görünüyor” dedi.
Dartmouth'daki yapay zeka danışmanı olan bir kültürel bilim adamı olan James E. Dobson, bu tür sohbet botlarını kullanan insanlar nasıl eğitildikleri konusunda tamamen bilgilendirilmelidir.
“Ses modellerine güven, kökenleri hakkında bir şeyler bilmeye bağlıdır” dedi.
Bir yanıt yazın