Geçenlerde büyük bir grupta oturdum çünkü çözülmesi gereken bir aile meselesi vardı. Herkes bunun için hazırlanmıştı ama yine de herkes toplantıya çok farklı bilgilerle geldi. Sebebi: Pek çok kişi ön araştırmaları sırasında ChatGPT gibi yapay zeka sohbet robotlarına güvenmişti. Ve bazen oldukça büyük saçmalıklar söylüyorlar.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Bir arkadaşım, arkadaş grubunda hobi sporunun doğru kuralları konusunda büyük tartışmalar yaşandığını bildirdi. Burada da bir katılımcı bilgilerini ChatGPT'den aldı; ancak görünüşe göre yapay zekanın patronluk konusunda pek bir fikri yoktu.
Pek çok örnekten sadece ikisi. Yapay zeka sohbet robotlarından gelen yanlış bilgilerin günlük yaşamı etkilemesi uzun süredir başlı başına bir sosyal olgudur. “Ama ChatGPT'ye sordum” cümlesi artık “Bunu Google'da araştırdım” cümlesinden daha sık duyulacak. Ve şimdi başka bir sorun daha var.
Yapay zeka modellerinin hedefli manipülasyonu
BBC ve SEO şirketi Ahrefs'in araştırmasına göre, ChatGPT ve Gemini gibi tanınmış sohbet robotları yakın zamanda eski Trump danışmanı Elon Musk tarafından işletilen, sağcı anlatıları yayan ve birçok konuda yanlış bilgi sağlayan bir yapay zeka web sitesi olan “Grokipedia” ile ilgili yanıtlar buldu.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Diğer siyasi aktörler, tanınmış AI sohbet robotlarının veri tabanını etkilemek için kasıtlı olarak çevrimiçi olarak yanlış bilgiler yaymaktadır. NewsGuard organizasyonuna göre Rusya bunu yaptı: Moskova'daki sözde Pravda ağının, Kremlin yanlısı propaganda içeren 3.600.000 makaleyi yapay zeka sohbet robotlarına enjekte etmeyi başardığı söyleniyor.
Bu olgunun bir adı var: “Yüksek Lisans eğitimi” veya “veri zehirlenmesi”. BBC'ye göre ChatGPT, Grokipedia'ya dayandığı için birçok yanıtta yanlış bilgi verdi.
Halüsinasyon sorunu
Tek sorun bu değil. Büyük Dil Modelleri (LLM) olarak adlandırılan (yapay zeka sohbet robotlarının resmi adı budur) halüsinasyon görebildiği uzun zamandır biliniyor. ChatGPT'nin 2022'deki ilk halka açık sürümünde bile bu standart bir ayardı: Yapay zekanın bir soruya yanıtı yoksa, yalnızca bir şeyler uydurdu.
Bu günlerde bu daha az oluyor çünkü Yüksek Lisans'lar çok daha iyi hale geldi ve kaynaklar genellikle doğrudan bağlantı olarak sağlanıyor. Bununla birlikte, sohbet robotları yine de hata yapabilir: Bazen sadece şüpheli olan bağlantılara atıfta bulunulur – ChatGPT, gazetecilik veya bilimsel bir teklif ile özel bir blog arasındaki farkı her zaman tanımaz. Bazen iddia edilen bilgileri hiç içermeyen bağlantılar eklenir.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Günlük yaşamda bu şu anlama gelir: Dikkatli olun! Yapay zeka bilgilerinin doğruluğu, ister siyasi konularda ister günlük konularda olsun, her zaman iki kez kontrol edilmelidir. LLM'ler güvenilir bir kaynak değildir. Ve şüphe durumunda “Ama ChatGPT'ye sordum” argümanının hiçbir değeri yoktur.

Bir yanıt yazın