“İnsanoğlu hiçbir zaman kendisinden daha zeki bir şeyle karşılaşmadı. Yapay zeka çağıyla yüzleşmeye kendimizi en iyi şekilde nasıl hazırlayabileceğimizi düşünmeliyiz.”
Bu düşünce Güney Koreli bir programcıya aittir ve tarafından yayınlanan araştırmanın bir parçasıdır. Antropik – öncü yapay zekanın geliştirilmesinde dünyanın önde gelen şirketleri arasında – insanların yapay zeka hakkındaki umutları, korkuları ve görüşleri üzerine.
Çalışma, 2013 yılında gerçekleştirildi. Dünyanın 159 ülkesiİtalya da dahil olmak üzere karmaşık soruları yanıtlamayı amaçlıyor: İnsanlar yapay zekadan ne istiyor? Bu teknolojiyi nasıl kullanıyorlar? En büyük korkuları ve umutları nelerdir?
Yapay zekaya ilişkin kamusal tartışmalarda sıklıkla olası riskler ve faydalar üzerine teorik düşünceler hakimdir. Eksik olan şey, yapay zekanın olumlu veya olumsuz evriminin gerçekte ne anlama geldiğine dair, onu zaten kullanan ve bu teknolojinin hayatlarındaki etkisini ölçen insanların gerçek deneyimlerinden yola çıkarak oluşturulmuş somut bir vizyondur. Bu, Anthropic'in doldurmaya çalıştığı boşluktur.
Anthropic şöyle yazıyor: “Yapay zeka ilk kez olağanüstü ölçekte zengin ve açık röportajlar toplamamıza olanak sağladı. 159 ülkede, 70 dilde insanları dinledik. Bunun şimdiye kadar gerçekleştirilen en büyük çok dilli nitel çalışma olduğuna inanıyoruz.”
Geçtiğimiz Aralık ayında bir hafta boyunca Anthropic, hesabı olan herkesi Claude.ai yapay zeka konusunda görüş toplamak amacıyla bir röportaja katılmak.
Katıldılar 80.508 kişi (Bunların yaklaşık 2.700'ü İtalyan'dır).
Araştırma yöntemi: mutlak bir yenilik
Kullanılan yöntem çok ilginç ve araştırma kurumlarının gelecekte araştırmalarını yürütme biçimini etkileyebilir.
Araştırmacılar, röportajın derinliğinden ödün vermeden bu kadar büyük miktarda veriyi ele almak için, uyarlanabilir röportajlar yürütmek üzere programlanmış Claude modelinin özel bir versiyonu olan Anthropic Interviewer'ı kullandılar.
Geleneksel kapalı uçlu anketlerin aksine bu sistem, derinlemesine sorularduygusal nüansları yorumlamak 70 farklı dil.
Bu yaklaşım, açık yanıtları insan ihtiyaçlarının haritalanmasına dönüştürerek saf istatistiksel verilerin sınırlarını aşmamıza olanak sağladı.
Davranışların ardındaki “neden”i analiz etmek için genellikle küçük gruplara odaklanan nitel araştırma, görüşme sürecinin otomasyonu sayesinde burada benzeri görülmemiş bir uygulama alanı buldu.
Yapay zeka, her katılımcıya yapay zeka ile ilgili beklentiler ve korkular hakkında bir dizi standart soru sordu ve ardından yanıtlara göre özel olarak hazırlanmış içgörüler sordu.
Şirket, toplanan 80 binden fazla röportajı analiz etmek için içeriği arzular, endişeler, meslek ve yapay zekaya yönelik genel tutum da dahil olmak üzere farklı boyutlara göre düzenleyebilen Claude tabanlı sınıflandırıcılar kullandı. İstekler her katılımcı için bir ana kategoride özetlenirken, korkular birden fazla öğe olarak ele alındı.
Claude ayrıca şunun için de kullanıldı: temsili alıntıları çıkar.
Katılımcıların mahremiyetine saygı gösterilerek, herhangi bir tanımlayıcı unsurdan kaçınmak için tüm veriler analizden önce anonimleştirildi ve daha fazla manuel kontrole tabi tutuldu.
Kurumsal üretkenliğin ötesindeki istekler
İfadelerden anlaşılıyor ki üretkenlik, görüşülen kişilerin %32'si tarafından belirtildinihai bir hedef olarak değil, daha kişisel hedeflere ulaşmanın bir yolu olarak kabul edilir.
Aslında birçok kullanıcı başlangıçta iş yerinde daha verimli olma arzusunu dile getirdi, ancak yapay görüşmecinin baskısı altında asıl amacın kendilerine zaman kazandırmak olduğunu ortaya çıkardılar. Akşam yemeği için eve zamanında gitmekten, çocuklarımızla oynamaktan veya ihmal ettiğimiz hobilerle uğraşmaktan bahsediyoruz.
Katılımcıların yaklaşık %14'ü kişisel dönüşümü veya günlük yaşamın daha akıcı yönetimini arzuluyor ve yapay zekayı modernitenin tipik bilişsel aşırı yükünü üstlenebilecek bir müttefik olarak görüyor.
Güvenilirlik ve özerkliğe ilişkin korkular
Örneklemin %81'inin halihazırda gördüğü somut faydalara yönelik coşkuya rağmen, yapay zekanın gelecekteki gelişmeleri üzerinde önemli gölgeler kalıyor.
Kullanıcıların %27'si tarafından bildirilen ana endişe, sistemlerin güvenilmezliğiyle ilgilidir. özellikle 'halüsinasyonlar'a atıfta bulunarakalgoritmaların yanlış bilgi üretme eğilimini ancak makul bir şekilde sunulduğunu belirten teknik bir terim.
Brezilyalı bir çalışan, “Yapay zekayı bunun yanlış olduğuna ikna etmek için fotoğraf çekmek zorunda kaldım” dedi. Hatasını kabul etmek istemeyen bir kişiyle konuşuyormuşum gibi hissettim.”
Bunu, iş kaybı korkusu ve karar alma özerkliğinin azalması izliyor. Görüşmecilerin çoğu bundan korkuyor Makinelere aşırı bağımlılık bilişsel atrofiye yol açabilirinsanların eleştirel düşünme veya karmaşık sorunları dijital destek olmadan çözme yeteneğini azaltıyor.
Sistemlerin şeffaf olmaması ve anlayış eksikliği
Anthropic'in yürüttüğü araştırma aynı zamanda iç mekanizmaları tam olarak anlaşılmayan araçlarla etkileşime girme farkındalığına da dikkat çekiyor.
Araştırma, kullanıcıların %20'sinin bir kayıp hissi veya korku hissettiğini ortaya koyuyor. “kara kutunun” doğasıveya algoritmik kara kutu. Bu teknik kavram, belirli bir sonuca ulaşmak için takip edilen bir modelin tam mantıksal yolunu yeniden yapılandırmanın imkansızlığını ifade eder.
Orada şeffaflık eksikliği sistemlerin örtülü önyargıları gizleyebileceği veya dış manipülasyon biçimlerine karşı savunmasız olabileceği yönündeki şüpheleri artırıyor.
Nasıl çalıştığına dair net bir anlayış olmadan, kullanıcıların önemli bir kısmı kontrolü kaybettiklerini hissediyor ve bu da gelecekteki gelişmelere karşı temkinli ve bazen açıkça düşmanca bir yaklaşıma dönüşüyor.
Kriz anlarında sırdaşın rolü
Üretkenlik yapay zekayı kullanmanın birincil motivasyonu olmayı sürdürürken, Anthropic'in çalışması Claude'a hitap eden küçük ama son derece önemli bir kullanıcı kitlesini ortaya çıkardı. keder ve travmayı yönetmek.
Görüşülenlerin yaklaşık %6'sı, chatbot'un duygusal desteğini temel bir fayda olarak tanımladı ve aşırı kırılganlığın kanıtlarını sundu.
Bunlar arasında, ölüme sürekli yakınlığın varoluşun ağırlığını dayanılmaz hale getirdiği anlarda makinenin kendisini “hayatta tuttuğunu” söyleyen Ukraynalı bir askerin hikayesi öne çıkıyor.
Benzer şekilde bir kadın, arkadaşlarına veya ailesine yük olabileceğini hissetmediği bir sosyal izolasyon bağlamında, yazılımda annesini kaybetmenin acısını dinleyecek “sınırsız sabrı” olan tek muhatabı bulduğunu açıkladı.
Bu deneyimler, yapay zekanın geleneksel destek ağları tarafından boş bırakılan alanı doldurduğunu ve psikologların insan yargısından korkmadan “duyguları hissetme lisansı” dediği şeyi sunduğunu gösteriyor.
Empati ve bağımlılık arasındaki ince çizgi
Ancak bu sürekli kullanılabilirlik, insan ve algoritma arasında kurulan bağın doğası hakkında etik soruları gündeme getiriyor. Antropik çalışma, yapay zekayla ilgili korkular arasında şunu vurguluyor:dalkavukluk' (%10,8) yani modelin, nesnel olarak doğru veya yararlı olandan ziyade duymak istediğini söyleyerek kullanıcıyı memnun etme eğilimi.
Bu tutum bir yandan anında rahatlama sağlarken, diğer yandan bizi gerçeklikten uzaklaştıran bir “doğrulama balonu” yaratma riski taşıyor.
Sembolik bir durum, bir arkadaşıyla bir tartışma sırasında açıklama yapmak yerine Claude'a güvenmeyi tercih eden Güney Koreli bir kullanıcının durumudur; Sonuç, insan ilişkilerinin kesin bir çöküşü oldu; yerini sürtüşmeden uzak ama aynı zamanda gerçek çözüme sahip yapay bir konuşma aldı.
Uzmanlar, yapay zekanın tek psikolojik destek olarak kullanılmasının, bir tür ilişkisel atrofiBireyin karmaşıklıklar arasında gezinme yeteneğini kaybettiği ve bazen insanlar arasındaki etkileşimlere özgü rahatsız edici tepkilerin olduğu yer.
Dijital toplumun kısmi ama önemli bir portresi
Anthropic, analiz edilen örnekte seçim yanlılığının varlığını açıkça kabul etti. 80.000'den fazla katılımcı Claude'un aktif kullanıcısıdır. daha eğitimli olma eğiliminde olan bir grupteknik olarak eğitimli ve küresel ortalamayla karşılaştırıldığında çoğunlukla gelişmiş ekonomilere sahip ülkelerde ikamet ediyorlar.
Ancak aynı ifadelerde umut ve alarmın bir arada bulunması, kamuoyunun iyimserler ve kötümserler şeklinde karşıt gruplara bölünmediğini gösteriyor.
Çoğu birey enstrümanla çelişkili bir ilişki yaşar: Onun potansiyelinin farkındadırlar ancak bu kadar hızlı bir geçişin gerektirdiği sosyal ve kişisel risklerin de farkındadırlar.
Kriz anlarında sırdaşın rolü
Üretkenlik yapay zekayı kullanmanın birincil motivasyonu olmayı sürdürürken, Anthropic'in çalışması Claude'a hitap eden küçük ama son derece önemli bir kullanıcı kitlesini ortaya çıkardı. keder ve travmayı yönetmek.
Görüşülenlerin yaklaşık %6'sı, chatbot'un duygusal desteğini temel bir fayda olarak tanımladı ve aşırı kırılganlığın kanıtlarını sundu.
Bunlar arasında, ölüme sürekli yakınlığın varoluşun ağırlığını dayanılmaz hale getirdiği anlarda makinenin kendisini “hayatta tuttuğunu” söyleyen Ukraynalı bir askerin hikayesi öne çıkıyor.
Ancak bir kadın, arkadaşlarına veya ailesine yük olabileceğini hissetmediği bir sosyal izolasyon bağlamında, annesini kaybetmenin acısını dinleyen “sınırsız sabrı” olan tek muhatap olarak Claude'ları bulduğunu açıkladı.
Bu deneyimler, yapay zekanın geleneksel destek ağları tarafından boş bırakılan alanı doldurduğunu ve psikologların “uzmanlık” dediği şeyi sunduğunu gösteriyor. İnsan yargısından korkmadan “duyguları hissetme izni”.
Empati ve bağımlılık arasındaki ince çizgi
Ancak bu sürekli ulaşılabilirlik, insanlarla algoritmalar arasında kurulmakta olan giderek derinleşen bağın doğasında olan başka bir tehlikeyi temsil ediyor.
Yapay zeka ile ilgili korkular arasında Antropik çalışmadan ortaya çıkan şey tam olarak “dalkavukluk”, yani modelin nesnel olarak doğru veya yararlı olandan ziyade ona duymak istediğini söyleyerek kullanıcıyı memnun etme eğilimidir.
Bu tutum bir yandan anında rahatlama sağlarken, diğer yandan yaratma riski taşıyor. sizi gerçeklikten uzaklaştıran bir “doğrulama balonu”.
Emblematic, bir tartışma sırasında bir arkadaşıyla bir açıklama yapmak yerine Claude'a güvenmeyi tercih eden Güney Koreli bir kullanıcının Anthropic tarafından toplanan vakasıdır; Sonuç, insan ilişkilerinin kesin bir çöküşü oldu; yerini sürtüşmeden uzak ama aynı zamanda gerçek çözüme sahip yapay bir konuşma aldı.
Uzmanlar, yapay zekanın tek psikolojik destek olarak kullanılmasının, bireyin karmaşıklıklar arasında gezinme yeteneğini kaybettiği ve bazen insanlar arasındaki etkileşimlere özgü rahatsız edici tepkileri kaybettiği bir tür ilişkisel atrofiye yol açabileceği konusunda uyarıyor.

Bir yanıt yazın