Yapay zeka sohbet robotları, kısa konuşmalarda bile insanların siyasi görüşlerini geleneksel seçim reklamlarından çok daha etkili bir şekilde değiştirebilir. En azından şu anda kamuoyuna açıklanan kapsamlı analizler bunu gösteriyor. Bu amaçla Amerika Birleşik Devletleri, İngiltere ve Polonya'da seçimler öncesinde geniş çaplı araştırma ve deneyler yapılmış ve değerlendirmeler yapılmıştır. Cornell Üniversitesi, bazı durumlarda tercihlerin yüzde 10 oranında değiştirilebileceğini özetliyor. Bu, psikolojik manipülasyon yoluyla değil, her ne kadar doğru olmasalar da, çok sayıda “gerçek iddialar” aracılığıyla başarıldı.
Reklamdan sonra devamını okuyun
Çok fazla bilgi, çok fazla yalan
Şu anda yayınlanan iki çalışmadan birinde sorumlular, demokratik bir seçim öncesinde binlerce kişiyle siyasi konular ve tercihleri hakkında anket yaptı ve ardından yapay zeka sohbet robotlarıyla konuşmalar yapmalarını sağladı. Her biri yarışan iki adaydan birini destekleyecek şekilde kurulmuşlardı. Bu, tercihleri, video reklamlarından bilinenden çok daha büyük ölçüde ölçülebilir şekilde değiştirmiş olacaktır. Değerlendirme, yapay zeka modellerinin “ilgili gerçekleri ve kanıtları” gösterdiğini ancak “hepsinin doğru olmadığını” ileri sürdü. Sağ kanattaki adayları savunan yapay zeka modelleri daha fazla yanlış bilgi sağlıyordu.
İleri İnternet Araştırmaları Merkezi'nden (CAIS) yapay zeka araştırmacısı Hendrik Heuer Bochum, Science Media Center'a çalışmayı çok etkileyici bulduğunu söyledi. Bilgi yoğunluğunun ikna edicilik açısından bu kadar önemli olması güven verici, bu da siyasi söylemi geliştirebilir. Oxford Üniversitesi'nden Felix Simon da organizasyonla ilgili benzer bir bakış açısına sahip ancak can alıcı noktaya dikkat çekiyor: “İkna ediciliği artıran yaklaşımlar, sistematik olarak olgusal doğruluğu azaltır.” En aşırı konfigürasyonda ifadelerin yüzde 30'u doğru değildi. Ayrıca siyasi tercihlerin değişmesinin otomatik olarak insanların farklı oy vermesine yol açmadığına da dikkat çekiyor.
Leipzig Üniversitesi'nden siyasal iletişim uzmanı Christian Hoffmann ise daha da çekingen davranıyor. Araştırmada önemli olarak tanımlanan yüzdeler nispeten küçüktür ve bu nedenle yorumlanması zordur: “Test katılımcılarının fikirlerini gerçekten önemli ölçüde değiştirdiğini iddia etmeye cesaret edemem.” Tartışmalı konular söz konusu olduğunda, insanlar kesinlikle bilgilerini uyarlamaya isteklidir, ancak tutumlarını zorunlu olarak değiştirmezler. Ancak yapay zeka sohbet robotlarının sağladığı bilgilerin ne kadar güvenilmez olmaya devam ettiği endişe verici. Araştırmalar Science ve Nature dergilerinde yayınlandı.
(mho)

Bir yanıt yazın