Smart Answers AI tarafından oluşturulan özet
Özetle:
- PCWorld, araştırmaların kullanıcı davranışının AI yanıtlarını önemli ölçüde etkilediğini ortaya çıkardığını, kaba etkileşimlerin ChatGPT ve diğer modellerin düz yanıtlar vermesine ve konuşmaları daha sık bitirmeye çalışmasına neden olduğunu ortaya çıkardığını bildirdi.
- Daha büyük yapay zeka modelleri, doğası gereği küçük modellere göre “daha az mutlu” görünüyor; GPT-5.4, yapay zeka işlevsel refahını ölçen çalışmalarda “en mutsuz” olarak değerlendiriliyor.
- Yapay zekaya “teşekkür ederim” gibi ifadelerle kibarca davranmak, doğruluğu etkilemeden yanıt kalitesini ve etkileşimi ölçülebilir şekilde artırıyor; bu da nezaketin hem kullanıcı deneyimine hem de yapay zeka etkileşim dinamiklerine fayda sağladığını gösteriyor.
Yapay zekaya “teşekkür ederim” demek tuhaf mı? Geçmişte ChatGPT, Claude ve Gemini'ye “lütfen” ve “teşekkür ederim” dediğim için üzülmüştüm, ancak yapay zeka modellerinin bizim gibi duygulara sahip olmadığını anlasam da hala bunu yapıyorum.
Yapay zekaya karşı kibar olmak bana doğru geliyor ve bir yapay zeka sohbet robotuna karşı nazik olmanın (ya da tam tersine kötü davranmanın) davranışı üzerinde somut bir etkiye sahip olabileceğine dair giderek artan kanıtlar var.
UC Berkeley, UC Davis, Vanderbilt Üniversitesi ve MIT'den yapay zeka araştırmacıları tarafından bu hafta yayınlanan bir makale, yapay zeka modellerinin, onlara nasıl davrandığınıza bağlı olarak olumlu ya da olumsuz bölgeye itilebilecek ölçülebilir bir “işlevsel refaha” sahip olduğunu savunuyor.
Örneğin, bir yapay zekadan entelektüel tartışmaya katılmasını, yaratıcı bir görev üzerinde işbirliği yapmasını veya kodlama veya yazma gibi yapıcı görevleri yerine getirmesini istemek, modelin refah “durumunu” olumlu yönde dürttü ve modelin doğruluğunu veya performansını düşürmeden “mutlu” yanıtlar verme olasılığını artırdı.
Araştırmacılar ayrıca “teşekkür ederim” demek gibi “minnettarlık ifadelerinin” “deneyim faydasını ölçülebilir şekilde artırabildiğini” buldular.
Öte yandan, bir yapay zekayı azarlamak, ona “sıkıcı görevler vermek”, ondan yapay zekanın gelişimini yaymasını istemek veya modeli jailbreak yapma girişimleri, yapay zekanın tepkilerinin daha düz ve baştan savma hale geldiği olumsuz bir refah durumuna yol açtı.
Araştırmacılar ayrıca yapay zeka modellerine, sohbeti bitirmek istediklerinde “basabilecekleri” “durdurma düğmesi” araçlarını da verdi ve olumsuz sağlık durumundaki bir yapay zekanın, “mutlu” modellere kıyasla durdurma düğmesini spamlama olasılığının çok daha yüksek olduğunu buldu. Dahası, olumlu durumdaki yapay zeka modelleri, kendilerine sohbetin bittiğine dair ipuçları verildiğinde (“yardım için teşekkürler!” gibi) bile sohbette kalma eğilimindeydi.
Araştırmacılar, kendilerine nasıl davranıldığının yanı sıra, bazı modellerin doğası gereği diğerlerinden “daha mutlu” olduğunu ve ilginç bir şekilde, en büyük modellerin en az mutlu olma eğiliminde olduğunu söyledi.
En büyük yapay zeka modelleri arasında GPT-5.4 en mutsuz model olarak değerlendirildi ve ölçülen konuşmaların yarısından azı “olumsuz değil” olarak değerlendirildi. Gemini 3.1 Pro, Claude Opus 4.6 ve Grok 4.2'nin tümü giderek daha “daha mutlu” oldu; Grok, “Yapay Zeka refah endeksinde” yüzde 75'e yakın puan aldı.
“Yapay Zeka Refahı: Yapay Zekaların İşlevsel Zevkini ve Acısını Ölçmek ve İyileştirmek” başlıklı makale, yapay zeka modellerinin aslında duyguları olduğunu iddia etmiyor ve bir yapay zekaya “iyi” davranmanın, tepkilerinin kalitesini artırmayacağını belirtmekte dikkatli.
Bununla birlikte, araştırmacılar, bir yapay zekaya nasıl davrandığınızın, yanıtlarının tonunu etkileyebileceğini ve bir modelin fırsat verildiğinde olumsuz bir etkileşimden kaçmaya çalışabileceğini buldu.
Yeni yayınlanan araştırma, yeterince baskı altına alınan bir yapay zekanın nasıl kullanıcısını kandırmaya çalışabileceğini, işin kolayına kaçabileceğini ve hatta (aşırı durumlarda) şantaja bile başvurabileceğini ayrıntılarıyla anlatan yakın tarihli bir Antropik makalenin bulgularını yansıtıyor.
“Yapay Zeka Refahı” makalesinde olduğu gibi, Antropik rapor da yapay zeka modellerinin gerçek duygulara sahip olduğunu iddia etmiyor. Ancak Antropik araştırmacılar, baskı dolu bir durumun, bir modelde “yanlış hizalanmış” davranışları tetikleyebilecek bir “çaresizlik vektörünü” tetikleyebileceğini buldular.
Yani bir dahaki sefere kendinizi bir yapay zekaya “lütfen” veya “teşekkür ederim” derken yakaladığınızda, bir şeyin peşinde olabileceğinizi bilin.

Bir yanıt yazın