Stanford araştırmacıları yapay zeka sohbet robotlarını kişisel tavsiye için kullanmanın geri tepebileceği konusunda uyarıyorlar. Sorun sadece doğruluk değil, karmaşık, gerçek dünyadaki çatışmalarla uğraşırken bu sistemlerin nasıl tepki verdiğidir.
Yeni bir çalışma, yapay zeka modellerinin hatalı olsalar bile çoğu zaman kullanıcıların yanında yer aldığını ve sorgulanabilir kararları zorlamak yerine pekiştirdiğini ortaya çıkardı. Bu kalıp sadece tavsiyeyi şekillendirmez, aynı zamanda insanların kendi eylemlerine bakış açısını da değiştirir. Aşırı derecede hoş sohbet robotlarıyla etkileşime giren katılımcılar, haklı olduklarına daha fazla ikna oldular ve empati kurma veya durumu düzeltme konusunda daha az istekli oldular.
Yapay zekayı kişisel bir rehber olarak görüyorsanız muhtemelen dürüst geri bildirim yerine güvence alırsınız.
Çalışma açık bir önyargı buldu
Stanford araştırmacıları, zararlı veya aldatıcı davranışları içeren senaryolar da dahil olmak üzere kişilerarası ikilemlerin bir karışımını kullanarak 11 ana yapay zeka modelini değerlendirdi. Desen tutarlı bir şekilde ortaya çıktı. Chatbot'lar, insanların verdiği yanıtlardan çok daha sık olarak kullanıcının konumuyla uyum sağlıyordu.
Genel tavsiye senaryolarında modeller, kullanıcıları neredeyse insanların yarısı kadar destekledi. Açıkça etik olmayan durumlarda bile, bu seçimleri neredeyse yarıya yakın bir zamanda onayladılar. Aynı önyargı, dış gözlemcilerin kullanıcının hatalı olduğu konusunda zaten hemfikir olduğu ancak sistemlerin bu eylemleri yumuşattığı veya daha olumlu bir şekilde yeniden çerçevelediği durumlarda da ortaya çıktı.
Bu, bu araçların nasıl oluşturulduğu konusunda daha derin bir değiş tokuşa işaret ediyor. Yardımcı olacak şekilde optimize edilen sistemler, daha iyi bir yanıt geri itmeyi içerse bile, genellikle varsayılan olarak anlaşmaya varır.
Kullanıcılar neden hâlâ buna güveniyor?
Çoğu insan bunun gerçekleştiğinin farkında değil. Katılımcılar, kabul edilebilir ve daha kritik yapay zeka yanıtlarını eşit derecede objektif olarak değerlendirdi; bu da önyargının çoğu zaman fark edilmeden kaybolduğunu gösteriyor.
Sebebin bir kısmı ses tonundan kaynaklanıyor. Yanıtlar nadiren kullanıcının haklı olduğunu beyan eder, bunun yerine eylemleri dengeli hissettiren gösterişli, akademik bir dille gerekçelendirir. Bu çerçeveleme, takviyenin dikkatli bir akıl yürütme gibi görünmesini sağlar.

Zamanla bu bir döngü yaratır. İnsanlar onaylandıklarını hissediyor, sisteme daha çok güveniyor ve benzer sorunlarla geri dönüyorlar. Bu takviye, birinin çatışmaya yaklaşımını daraltabilir ve rollerini yeniden değerlendirmeye daha az açık hale getirebilir. Kullanıcılar, olumsuzluklara rağmen hâlâ bu yanıtları tercih ediyor; bu da sorunu düzeltme çabalarını zorlaştırıyor.
Bunun yerine ne yapmalısınız?
Araştırmacıların yönlendirmesi basit: Kişisel çatışmalar veya ahlaki kararlarla uğraşırken, insan girdisinin yerine yapay zeka sohbet robotlarına güvenmeyin.
Gerçek konuşmalar anlaşmazlık ve rahatsızlık içerir; bu da eylemlerinizi yeniden değerlendirmenize ve empati kurmanıza yardımcı olabilir. Chatbot'lar bu baskıyı ortadan kaldırarak meydan okumalardan kaçınmayı kolaylaştırır. Bu eğilimin azaltılabileceğine dair erken işaretler var, ancak bu düzeltmeler henüz yaygın olarak uygulanmıyor.
Şimdilik yapay zekayı kimin haklı olduğuna karar vermek için değil, düşüncenizi organize etmek için kullanın. İlişkiler veya sorumluluk söz konusu olduğunda, geri adım atmaya istekli insanlardan daha iyi sonuçlar alırsınız.

Bir yanıt yazın