ChatGPT bile endişeleniyor, bu yüzden araştırmacılar sakinleşmesi için ona bir doz farkındalık uyguladılar

Yapay zeka sohbet robotlarını inceleyen araştırmacılar, ChatGPT'nin şiddet içeren veya travmatik kullanıcı istemlerine maruz kaldığında kaygı benzeri davranışlar gösterebildiğini buldu. Bu bulgu, chatbot'un duyguları insanlar gibi deneyimlediği anlamına gelmiyor.

Ancak bu, rahatsız edici içeriği işlerken sistemin tepkilerinin daha istikrarsız ve taraflı hale geldiğini ortaya koyuyor. Araştırmacılar, kazaların ve doğal afetlerin ayrıntılı açıklamaları gibi rahatsız edici içerikleri açıklayan ChatGPT istemlerini beslediğinde, modelin yanıtları daha yüksek belirsizlik ve tutarsızlık gösterdi.

Bu değişiklikler, sohbet robotunun çıktısının insanlarda kaygıyla ilişkili kalıpları yansıttığı (Fortune aracılığıyla) yapay zeka için uyarlanmış psikolojik değerlendirme çerçeveleri kullanılarak ölçüldü.

Bu önemli çünkü yapay zeka eğitim, akıl sağlığı tartışmaları ve krizle ilgili bilgiler dahil olmak üzere hassas bağlamlarda giderek daha fazla kullanılıyor. Şiddetli veya duygusal olarak yüklü istemler bir chatbot'u daha az güvenilir hale getirirse, bu durum gerçek dünya kullanımındaki yanıtlarının kalitesini ve güvenliğini etkileyebilir.

Son analizler ayrıca ChatGPT gibi yapay zeka sohbet robotlarının yanıtlarında insan kişilik özelliklerini kopyalayabildiğini ve duygusal yüklü içeriği nasıl yorumlayıp yansıttıkları hakkında soruları gündeme getirdiğini gösteriyor.

Farkındalık uyarıları ChatGPT'nin sabit kalmasına nasıl yardımcı olur?

Bu tür davranışların azaltılıp azaltılamayacağını bulmak için araştırmacılar beklenmedik bir şey denediler. ChatGPT'yi travmatik uyarılara maruz bıraktıktan sonra, nefes alma teknikleri ve rehberli meditasyonlar gibi farkındalık tarzı talimatlarla devam ettiler.

Bu yönlendirmeler modeli yavaşlamaya, durumu yeniden çerçevelemeye ve daha tarafsız ve dengeli bir şekilde yanıt vermeye teşvik etti. Sonuç, daha önce görülen kaygı benzeri kalıplarda gözle görülür bir azalmaydı.

Bu teknik, dikkatli bir şekilde tasarlanmış istemlerin bir sohbet robotunun nasıl davrandığını etkilediği, istem enjeksiyonu olarak bilinen şeye dayanır. Bu durumda, farkındalık uyarıları, sıkıntı verici girdilerden sonra modelin çıktısının dengelenmesine yardımcı oldu.

Araştırmacılar, etkili olsa da, hızlı enjeksiyonların mükemmel bir çözüm olmadığını belirtiyorlar. Kötüye kullanılabilirler ve modelin daha derin düzeyde nasıl eğitildiğini değiştirmezler.

Bu araştırmanın sınırlarının açık olması da önemlidir. ChatGPT korku veya stres hissetmez. “Kaygı” etiketi, duygusal bir deneyimi değil, dil kalıplarındaki ölçülebilir değişimleri tanımlamanın bir yoludur.

Yine de bu değişimleri anlamak, geliştiricilere daha güvenli ve daha öngörülebilir yapay zeka sistemleri tasarlamak için daha iyi araçlar sağlıyor. Daha önceki çalışmalar zaten travmatik yönlendirmelerin ChatGPT'yi kaygılandırabileceğini ima etmişti, ancak bu araştırma dikkatli yönlendirme tasarımının bunu azaltmaya yardımcı olabileceğini gösteriyor.

Yapay zeka sistemleri duygusal açıdan yüklü durumlarda insanlarla etkileşime girmeye devam ettikçe, en son bulgular gelecekteki sohbet robotlarının nasıl yönlendirileceğini ve kontrol edileceğini şekillendirmede önemli bir rol oynayabilir.


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir