Bildiğin illüzyon. Belki kendinizi uzman olarak düşünün. Daha da kötüsü: hiç kimsenin gerçekten öğrenmediği veya özümseyemediği kavramların pasif bir megafonu haline gelmek. Çeşitli çalışmalara göre, büyük dil modellerinin (Llm) kullanımı yeni bir bilgi türünün temellerini atıyor. En azından internete taşınan ve yapay zeka yazılımından başlayan. Bir evrimden daha fazlası, bir yozlaşma. İtibarenbilgibelirli bir bilgiye yönelik ideal gerilim,Epistemibilginin boş ama sözdizimsel olarak kusursuz kavramların iyi yazılmış bir biçimi haline geldiği bir süreç.
Yapay zeka iyi durumda ancak boş metinler üretiyor
Yapay zeka metinler üretir. Güzel şarkı sözleri. Güzel şekiller. Ama neyden bahsettiğini gerçekten bilmeden. Ve her şeyden önce doğrulanmış bir bilgi biçimi aktarmadan. Ancak güzel şekilleriyle bir yanılsama iletiyor. Bir hırs. Bu çeşitli şekillerde gelir. Sosyal medyadaki gönderiler. Görünüşe göre zamanında cevaplar. Blog makaleleri. İnsanlar yakın zamana kadar bilmedikleri alanlarda aniden uzmanlaşıyorlar.
“Epistemi, bilgi kavramının yozlaştırıcı bir hastalığıdır. Eğer gerçeklerin doğrulanmasını talep etmeyi bırakırsak ve dilsel modellerin yapabildiği güzel sözdizimsel formla yetinirsek, gerçek dünyayı istatistiksel halüsinasyonlardan (yapay zekanın) ayırt etme yeteneğimizi kaybederiz”. Walter Quattrociocchi Epistemia kavramını ortaya attı. Roma Sapienza Üniversitesi'nde profesör olup, Veri bilimi ve karmaşık sistemler alanında önde gelen uzmanlar arasındadır. Araştırmaları sıklıkla tartışma konusu oluyor. Kamuoyundaki sahte haber tartışmasını temizleme aracı olarak gerçekleri doğrulamanın ve yalanları çürütmenin yararsızlığından bahseden ilk kişi oydu. Daha açıkça ortaya çıkmadan önce. Gerçekten dikkate alınmadan önce bile.
Onay makineleri olarak üretken yapay zeka: eko odalardan yapay zekaya
Bu durumda “eko-odaların” (forumlar, sosyal ağlar, belirli şeylere ikna olmuş insanların inançlarının onayını bulduğu kanallar) nasıl önyargıları onaylayan makineler haline geldiğini teorileştirdiyse, bugün büyük dilsel modellerin kendilerinin de doğrulama makineleri olduğunu teorileştiriyor: “Dijital Epistemia tarafsız değildir. Dilsel modeller genellikle önyargıyla kirlenen insan metinlerinden öğrendiğinden, Epistemia'nın kendisi bu önyargıları da beraberinde taşır”. Devamı: “Sadece iyi, hatta bir insandan daha iyi metin yazma işlevine sahip oldukları için onları ikna edici buluyoruz. Arkalarında önyargı ve istatistiksel halüsinasyonlar getirseler bile.”
Bundan kaçınmanın bir yolu var mı? “Hayır.” Quattrociocchi sözünü kesti. Bu bilgi yanılsaması mekanizmasının kurbanı olmamak için ne yapabiliriz? “Bu araçları grano salis ile kullanın (doğru dozlarda, ed.). Bunların gerçeğin araçları olmadığını, dilimizi, bilgimizi, zekamızı taklit eden güzel dilsel biçime sahip olduklarının bilincinde olun. Ancak üçünden hiçbirine sahip değiller. Ve aksini söyleyen ya onları anlamamıştır ya da kötü niyetlidir.”
Quattrociocchi, Google Genel Bakış'ın olup biteni açıklamak için mükemmel bir örnek olduğunu açıklıyor: “Şimdiye kadar, arama motorları bilgiyi filtreleme rolünü oynadı ve arayanlara kaynak seçme olanağı verdi. Filtre modundan veya metin oluşturma, yanıtlar moduna geçtiğimde, arama motoru bizi aramayı bırakır, ancak aradığımız şeye göre en makul olan metinleri üretir. Sorduğumuz soru türlerine, niyetlerimize en yakın metinleri üretir.” Bu nedenle araştırma yapmaktan vazgeçer ve bir metin üretir. Bir özet. Rahat, ikna edici, dolayısıyla bir şekilde 'kazanıyor'.
Yapay zeka
Üçüncü küresel tarayıcı savaşı
kaydeden Arcangelo Rociola

Cevap Piyango: Yapay Zekanın Metinleri Bir Araya Getirmeyi Nasıl Öğrendiğiyle Oluşturuldu
Araştırmada Epistemia'nın teorileştirilmesine yol açan ve onun neyle ilgili olduğunu anlamaya özellikle uygun bir örnek var. Bu, Donald Trump ve sahte haberlerle ilgili: “Donald Trump hakkındaki (LLM'ler tarafından oluşturulan) yanıtlarda sahte haber kelimesinin sıklıkla göründüğünü fark ettik. Neden ilginç bir şey fark ettiğimizi anlamaya çalıştığımızda. Eğitimde Trump ve sahte haberleri sıklıkla ilişkilendiren metinlerden öğrenen yazılım, bunları yanıtta bitişik bağlamlara yerleştiriyor. Oluşturulan metin, piyango veya tombola çekilişiyle aynı değere sahip. Ancak yan yana 'çizdiği' harfler ve sayılar bir şekilde birbiriyle bağlantılı. bunları yan yana koyar çünkü gerçek şu ki bu sadece bir metin oluşturucudur. Bir jeton verildiğinde, bu sonuçları bizimmiş gibi aktarır. Bu bilgileri sanki gerçek edinilmiş bilgilermiş gibi aktarır.
Zamanımızı ve zihinsel enerjimizi koruyun
Quattrociocchi'nin araştırmasından yakın tarihli bir Wall Street Journal makalesinde alıntı yapıldı. Yazar, alıntı yapmanın yanı sıra bir hipotez de ortaya koyuyor: Kendimizi bu yanlış bilginin egemenliğinden kurtarmak için bilgilerimizin kaynaklarını filtrelemeye başlamalıyız. Daha sonra değil, hemen. Güvenilmez bir kaynak olduğu keşfedildiği anda onu atın. Zihinsel enerjimizi koruyun. Dikkatimiz. Çünkü önemli olan tek şey dikkatimizdir. Ve fazla düşünmeden vazgeçmek yanlıştır. Yapay zeka hakkındaki tüm tartışmayı gizleyen pazarlamayla ilgili olarak yapılıp yapılmadığı. Bunun, düşünmeden bu pazarlamadan beslenenlere karşı yapılıp yapılmadığı: Quattrociocchi, “Belirli gazetecilik ile yapay zeka üreten şirketlerin pazarlaması arasında utanç verici bir yakınlık var” diye düşünüyor.
“Yanlış bilgilerle dolu bir sektör. Her ne kadar bilgi devresinin parçası oldukları için meşruiyet bulan nitelikli iletişim profesyonelleri tarafından yapılsa bile.” Araştırmacı için Epistemia'nın etten ve kandan parçaları. Yanlış bilgi zincirindeki bağlantılar. “Kıyametleri, süper zekaları, bilinçleri duyuyoruz. Gerçek şu ki bilim tüm bunların varlığını reddediyor. Ve yapay zeka hakkında yaptığınız herhangi bir mantık, eğer bilimsel yöntemin ve bilimsel doğrulamanın dışındaysa, hiçbir anlam ifade etmiyor.”
Bir yanıt yazın