Filozof: Yapay zeka bir araç değil, bir güç aracıdır

Baden-Württemberg veri koruma komiseri AI haftasında, “Etik ve yapay zekanın eleştirel teorileri” profesörü filozof ve etik uzmanı Rainer Mühlhoff, mevcut AI gelişmelerinin sosyal, politik ve ideolojik boyutları hakkında konuştu. Mühlhoff, yapay zekanın görünürdeki tarafsızlığını sorgulayan ve teknolojiyi karmaşık bir sosyo-ekonomik güç aracı olarak anlayan kapsamlı bir eleştirel resim çizdi.

Reklamdan sonra devamını okuyun

Mühlhoff'a göre, eski çağlardan beri “insanı makineleştirmeye” yönelik bir hayranlık vardı. Ancak teknolojinin hayal gücü büyüdükçe, “yapay zekanın fütüristik vizyonları azalıyor” […] Çoğunlukla şaşırtıcı bir sosyal muhafazakarlık eşlik ediyor.” Mühlhoff'a göre yapay zekanın görselleştirilmesi – örneğin “ışıktan yapılmış düşünen bir beyin” olarak – aynı zamanda teknolojinin problemli bir antropomorfizasyonunu ve mitolojikleştirilmesini de gösteriyor.

Yapay zekanın artık özerk bir sistem anlamında “makine zekası” olarak değil, veri izleri, tıklama çalışmaları veya günlük etkileşimler yoluyla önemli ölçüde insan katılımına dayanan “insan destekli yapay zeka” olarak anlaşılması gerektiğini savundu. Mühlhoff, “Tüm yapay zeka sistemleri insan işbirliğini ve insanın bilişsel performansını içeriyor” dedi. Sistemler, yalnızca küresel olarak eşit olmayan şekilde dağıtılmış tıklama işiyle karakterize edilmeyen, aynı zamanda model geliştirme sırasında çok büyük su ve enerji tüketimi gerektiren yeni bir dijital kullanım biçimi yaratıyor.

Mühlhoff, tahmin gücünü, veri gücünün en güncel biçimi, yani “herhangi bir kişi hakkında bilinmeyen bilgileri tahmin etme” yeteneği olarak adlandırdı. Spektrum, kişiselleştirilmiş reklamlardan konuşma kalıplarına dayalı akıl hastalıklarının teşhisine kadar uzanır. Bu, klasik veri koruma kavramlarının çok ötesine geçecektir; çünkü tahminler, yalnızca verileri sistemleri geliştirmek için kullanılan kişileri değil, aynı zamanda modellere dayalı olarak haklarında açıklama yapılabilecek ve onay vermemiş olan üçüncü tarafları da etkileyecektir. Bu husus şu ana kadar mevcut veri koruma kanununda pek ele alınmamıştır.

Mühlhoff, çeşitli örnekler kullanarak, pazarlama kampanyalarının veya tıbbi araştırmaların, daha sonra başvuru sahiplerini değerlendirmek gibi tamamen farklı amaçlar için kullanılan modelleri nasıl üretebileceğini gösterdi. Bu, artık anonimleştirme gibi klasik ilkeler kullanılarak kontrol edilemeyen tehlikeli ikincil kullanım yaratır.

Reklamdan sonra devamını okuyun

Araştırma projelerinde Mühlhoff, avukat Hanna Ruschemeier ile birlikte veri korumanın amaç sınırlama ilkesinin eğitimli modellere genişletilmesini öneriyor: Bir yapay zeka sistemi tıbbi bir bağlamda oluşturulduysa, süresiz olarak diğer bağlamlara “geçmemelidir”. Bu nedenle araştırmacılar, orijinal amaçlarını belgeleyen ve kontrol edilebilir hale getiren modellerin kaydedilmesi çağrısında bulunuyor.

Mühlhoff, yapay zeka sistemlerinin siyasi güç ve propagandanın kullanılmasına önemli katkı sağladığını açıkladı. Üretken modeller yeni sembolik şiddet ve dezenformasyon biçimlerine olanak sağladı. Klasik anlamdaki “sahte haber”in yerini “hipergerçek görüntüler” alacak, yani aldatmayan, yapay olarak yaratıldıklarını bilinçli olarak gösteren, estetik açıdan abartılı temsiller. Mühlhoff'a göre bu süper gerçek görüntüler özellikle gücün göstergesi olarak işlev görüyor, diğer şeylerin yanı sıra üstünlük ve otoriteyi gösteriyordu.

Ayrıca Mühlhoff, transhümanizm ve uzun vadelicilikte bulduğu yapay zeka elitlerinin ideolojik köklerini de açıkladı. Bu dünya görüşlerinde teknolojik ilerleme, “insanları kendilerinin üstüne çıkarması” gereken evrimsel bir güç olarak görülüyor. Mühlhoff'a göre öjenik, elitist ve anti-demokratik eğilimler ortaya çıktı. Düşünceleri teknolojik kurtuluş vaadi ile siyasi otoriterlik arasında gidip gelen Elon Musk veya Peter Thiel gibi girişimciler özellikle eleştireldir. Mühlhoff, “Teknolojik kurtuluş vaatleri ile siyasi iktidar arzularının birleşiminde bir miktar faşist potansiyel var” diyor.

“Döngüdeki insan” gibi kavramların etkili bir koruma sağladığına inanmıyor. Pratikte insanların bunu yapacak zamanları yoktur. Mühlhoff, “Yapay zeka, sömürü aygıtlarında yeni bir sınırlama biçimidir” dedi. İnsan emeğinin sınırlandırılmasından ziyade yenilenmeye yol açar. Bu da daha fazla kontrol ve daha fazla değiştirilebilirlik sağlar.

Yapay zekanın “sadece bir araç” olduğu sıklıkla konuşuluyor ancak Mühlhoff'a göre durum böyle değil. Teknolojinin kendisi kullanım amaçlarını şekillendirir ve tarafsız değildir. Şeffaflık önemlidir ancak bir garanti değildir; çünkü karmaşık toplumlarda herkes iç mekanizmaları anlayamaz. Daha da önemlisi bağımsız aktörler ve kurumlar tarafından doğrulanabilirliktir.

Mühlhoff, özellikle web kazıma ve veri çıkarma gibi konular söz konusu olduğunda güce duyarlı bir bakış açısını savundu. Sorun yalnızca işlemenin orantılı olup olmadığı değil, aynı zamanda bunu kimin yürüttüğü ve hangi çıkarların söz konusu olduğudur. Büyük yapay zeka modellerinin üretimi ve kullanımı pratikte yalnızca iyi sermayeli şirketlere açık olduğu sürece, “kamu yararına yönelim”den geriye pek bir şey kalmayacak. Mühlhoff'a göre veri koruması, gücün kötüye kullanılmasına, eşitsizliğe ve dijital otoriterliğe karşı koruma sağlayabilir ve böylece açık, demokratik bir toplumun temellerini güvence altına alabilir.

ChatGPT gibi büyük sistemler büyük miktarda veriden öğrenir ve ayrıca kişisel bilgileri saklar. FAU Erlangen-Nürnberg'den Asistan Profesör Paulina Jo Pesch'e göre bu, başka bir derste açıkladığı gibi veri koruma yasası açısından patlayıcı bir durum çünkü modeller “istediğinizden daha fazlasını saklıyor ve ardından eğitim verilerinden bilgi çıkarılmasına izin veriyor”.

Sözde halüsinasyonların gerçek insanlar hakkında yanlış veya karalayıcı ifadelere yol açması özellikle kritik hale gelir. Pesch, ChatGPT gazetecisinin hatalı bir şekilde suçlu olarak etiketlendiği 2024 tarihli iyi bilinen bir örneğe atıfta bulunarak, “Bu, Büyük Dil Modelinden gelen yanlış verilerle ilgili oldukça etkileyici bir durum” dedi. Aynı zamanda Big Tech, yapay zeka modellerini eğitmek için giderek daha fazla veri istiyor. Pesch, “Meta kişisel bilgilerin eğitim için kullanılmasını istiyor” diye vurguladı.

Pesch'e göre, etkili teknik koruma mekanizmaları veya düşük eşikli itiraz seçenekleri olmadan, özellikle çocuklar ve gençler gibi korunmasız gruplar da veri eğitiminden etkilenebilir. Meta, reşit olmayanlara ait içerikleri eğitim için kullanmayacağını iddia etse de bu güvence etkisizdi. Gençler genellikle Instagram veya Facebook hesaplarını yanlış yaşla oluşturuyor. Bu, Meta tarafından etkili bir şekilde kontrol edilmiyor. Bu, içeriklerinin aynı zamanda yetişkinlere yönelik veriler olarak değerlendirileceği ve potansiyel olarak yapay zeka eğitimine dahil edilebileceği anlamına geliyor. Pesch'e göre pek çok kişi, verilerinin Meta'nın yapay zeka eğitimi için kullanılmasına itirazlarını kabul etmiyor çünkü Meta, süreci kasıtlı olarak karmaşık ve şeffaf olmayan hale getirdi.

Kuzey Ren-Vestfalya tüketici danışma merkezi, Meta'nın eylemlerine karşı dava açmıştı ancak Köln Yüksek Bölge Mahkemesi önünde başarısız oldu. Pesch'e göre mahkeme önemli teknik sorunları görmezden geldi. Özellikle sorunlu olan şey, “mahkemenin gerçekte neyin eğitildiğini ve bunun yalnızca WhatsApp, Instagram ve Facebook'ta çeviri ve transkripsiyon için kullanılmadığını, aynı zamanda genel amaçlar için bir yapay zeka modelinin oluşturulduğunu bilmediği anlaşılıyor.”

Pesch, CR-online “AI sıcak karmaşası – Alman mahkemelerindeki meta ve AB düzenlemelerinin sıkıntılı durumu” hakkındaki blog yazısında, Köln'deki prosedürü, AI abartısının baskısı altındaki temel bir uygulama sorununun örneği olarak eleştiriyor. Yetersiz uygulama ve yasal koruma mekanizmalarının aşınması riski vardır. Rolünü ciddiye alan bir mahkeme, Meta'nın dil modeli Lama'nın kişisel verilerle eğitilmesine en azından şimdilik izin vermeyecektir.


(mack)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir