İzleyiciler Frankenstein'ın hikayesini zaten biliyor. Düzinelerce kez uyarlanan, en son yönetmen Guillermo del Toro'nun akıllardan çıkmayan yeniden canlandırmasıyla Netflix'te izlenen bu gotik roman, bilimin ters gittiği uyarı niteliğindeki öykü olarak kültürel DNA'mıza yerleşmiş durumda. Ancak popüler kültür yazar Mary Shelley'nin uyarısını yanlış yorumluyor. Ders “tehlikeli şeyler yaratmayın” değil. “Yarattığınız şeyden uzaklaşmayın.”
Bu ayrım önemlidir: Yol ayrımı yaratılıştan sonra gelir, önce değil. Tüm güçlü teknolojiler yıkıcı olabilir; sonuçlar arasındaki seçim, yönetim ya da feragat arasında yapılır. Victor Frankenstein'ın günahı sadece tuhaf bir yaratığa hayat vermek değildi. Sonuçların başkasının sorunu olduğu konusunda ısrar ederek bu konuyu gündeme getirmeyi reddediyordu. Her nesil kendi Galiplerini üretir. Bizimki yapay zekayla çalışıyor.
Yakın zamanda Kaliforniya'daki bir temyiz mahkemesi, özetlerindeki 23 davadan 21'inin AI uydurması (var olmayan emsaller) olduğunun kanıtlanmasının ardından bir avukata 10.000 dolar para cezası verdi. Ülke çapında yüzlerce benzer vaka belgelendi; bu vakaların sayısı ayda birkaç vakadan günde birkaç vakaya yükseldi. Bu yaz Georgia'daki bir temyiz mahkemesi, 15 alıntıdan 11'inin yapay zeka uydurması olduğunu keşfettikten sonra boşanma kararını iptal etti. Yasal kayıtları bozmaya hazır olan kaç kişi daha tespit edilemedi?
Sorun sorumsuz dağıtımdan daha derinlere uzanıyor. Onlarca yıldır bilgisayar sistemleri kanıtlanmış bir şekilde doğruydu; bir cep hesap makinesi, kullanıcılara her zaman tutarlı bir şekilde matematiksel olarak doğru yanıtlar sunabilir. Mühendisler bir algoritmanın nasıl davranacağını gösterebilirler. Başarısızlıklar sistemin kendisiyle ilgili belirsizlik değil, uygulama hataları anlamına geliyordu.
Modern yapay zeka bu paradigmayı değiştiriyor. Yakın zamanda Science dergisinde yayınlanan bir çalışma Yapay zeka uzmanlarının uzun süredir bildiği bir şeyi doğruluyor: Sektörün “halüsinasyonlar” olarak adlandırdığı makul yalanlar bu sistemlerde kaçınılmazdır. Neyin doğru olduğunu doğrulamak için değil, neyin makul göründüğünü tahmin etmek için eğitildiler. Kendinden emin cevaplar gerekçelendirilmediğinde, sistemler yine de tahminde bulunur. Eğitimleri belirsizlik yerine güveni ödüllendiriyor. Raporda alıntılanan bir yapay zeka araştırmacısının belirttiği gibi, bunu düzeltmek “ürünü öldürecektir.”
Bu, temel bir doğruluk sorunu yaratır. Bu sistemler, geniş eğitim veri kümelerinden modeller çıkararak çalışır; bu modeller o kadar çoktur ve birbiriyle bağlantılıdır ki tasarımcıları bile ne üreteceklerini güvenilir bir şekilde tahmin edemez. Sadece pratikte nasıl davrandıklarını gözlemleyebiliriz, bazen hasar oluştuktan çok sonra bile bunu gözlemleyemeyiz.
Bu öngörülemezlik ardı ardına gelen sonuçlar doğurur. Bu başarısızlıklar ortadan kalkmaz, kalıcı hale gelir. Fark edilmeden sızan her yasal uydurma, emsal olarak veri tabanlarına giriyor. Sahte tıbbi tavsiyeler sağlık sitelerine yayılıyor. Yapay zekanın ürettiği “haberler” sosyal medyada dolaşıyor. Bu sentetik içerik, gelecekteki modeller için eğitim verilerine bile kazınıyor. Bugünün halüsinasyonları yarının gerçekleri oluyor.
Peki yeniliği engellemeden bu sorunu nasıl çözebiliriz? İlaçta zaten bir modelimiz var. İlaç şirketleri tüm biyolojik etkilerden önceden emin olamıyor, bu nedenle kapsamlı testler yapıyorlar ve çoğu ilaç hastalara ulaşmadan başarısız oluyor. Onaylanmış ilaçlar bile gerçek dünyada beklenmeyen sorunlarla karşı karşıyadır. Bu nedenle sürekli izleme hayati önem taşıyor. Yapay zekanın da benzer bir çerçeveye ihtiyacı var.
Sorumlu yönetim (Victor Frankenstein'ın terk etmesinin tam tersi) birbirine bağlı üç sütun gerektirir. Birincisi: öngörülen eğitim standartları. İlaç üreticilerinin içerikleri kontrol etmesi, üretim uygulamalarını belgelemesi ve kalite testleri yapması gerekir. Yapay zeka şirketlerinin de paralel gereksinimlerle yüzleşmesi gerekiyor: eğitim verileri için belgelenmiş kaynak, sorunlu sentetik içeriğin yeniden kullanımını önlemek için kontaminasyon izleme, yasaklı içerik kategorileri ve demografik özellikler arasında önyargı testi. İlaç düzenleyicileri şeffaflığa ihtiyaç duyarken, mevcut yapay zeka şirketlerinin çok az açıklama yapması gerekiyor.
İkincisi: dağıtım öncesi test. İlaçlar hastalara ulaşmadan önce kapsamlı denemelerden geçiyor. Randomize kontrollü çalışmalar, güvenlik ve etkinliği göstermek için geliştirilen büyük bir başarıydı. Çoğu başarısız olur. Önemli olan bu. Testler, dağıtımdan önce ince tehlikeleri yakalar. Yasal araştırma, tıbbi tavsiye ve finansal yönetim de dahil olmak üzere yüksek riskli uygulamalara yönelik yapay zeka sistemlerinin, hata oranlarını belgelemek ve güvenlik eşiklerini belirlemek için yapılandırılmış testlere ihtiyacı vardır.
Üçüncüsü: Dağıtımdan sonra sürekli gözetim. İlaç şirketleri, ürünlerindeki olumsuz etkileri takip etmek ve bunları düzenleyici makamlara bildirmekle yükümlüdür. Buna karşılık, düzenleyiciler sorunlar ortaya çıktığında uyarıları, kısıtlamaları veya geri çekilmeyi zorunlu kılabilir. Yapay zekanın eşdeğer bir gözetime ihtiyacı var.
Bunun neden gönüllü uyum yerine düzenlemeye ihtiyacı var? Çünkü yapay zeka sistemleri temel olarak geleneksel araçlardan farklıdır. Bir çekiç marangoz gibi davranmaz. Yapay zeka sistemleri, gerçekleri alırken veya uydururken kendinden emin bir dille otoriteyi yansıtarak bunu yapar. Düzenleyici gereklilikler olmadan, katılım için optimizasyon yapan şirketler mutlaka pazar payı için doğruluktan fedakarlık edeceklerdir.
İşin püf noktası, yeniliği engellemeden düzenleme yapmaktır. AB'nin Yapay Zeka Yasası bunun ne kadar zor olduğunu gösteriyor. Kanun uyarınca, yüksek riskli yapay zeka sistemleri kuran şirketlerin, sistemlerinin nasıl çalıştığını belgelemesi, riskleri değerlendirmesi ve bunları yakından izlemesi gerekiyor. Küçük bir girişim, gerçek ürünü oluşturmaktan çok avukatlara ve evrak işlerine daha fazla harcama yapabilir. Hukuk ekiplerine sahip büyük şirketler bunu halledebilir. Küçük takımlar bunu yapamaz.
Farmasötik düzenleme de aynı modeli göstermektedir. Piyasaya sürülme sonrası gözetim, FDA'nın dünya çapında 80 milyondan fazla hastaya reçete edilen bir artrit ilacı olan Vioxx'un kalp krizi riskini iki katına çıkardığını keşfettiğinde on binlerce ölümü önledi. Yine de milyar dolarlık düzenleme maliyetleri, yalnızca büyük şirketlerin rekabet edebileceği ve nadir hastalıklara yönelik, belki de en iyi şekilde küçük biyoteknolojilerle mücadele edilebilecek faydalı tedavilerin gelişmeden kaldığı anlamına geliyor.
Kademeli gözetim bu sorunu, ölçeklendirme gerekliliklerini ve maliyetleri kanıtlanmış zararla ele alır. Düşük hata oranlarına sahip bir yapay zeka asistanı ekstra izleme olanağına sahip olur. Daha yüksek oranlar zorunlu düzeltmeleri tetikler. Kalıcı sorunlar mı? Düzelinceye kadar piyasadan çekin. Şirketler ya işlerinde kalabilmek için sistemlerini geliştirirler ya da ayrılırlar. Yenilik devam ediyor, ancak artık daha fazla sorumluluk var.
Sorumlu yöneticilik gönüllü olamaz. Güçlü bir şey yarattığınızda, ondan siz sorumlu olursunuz. Sorun, gelişmiş yapay zeka sistemlerinin oluşturulup oluşturulmayacağı değil; biz bunları zaten oluşturuyoruz. Sorun, bu sistemlerin talep ettiği dikkatli yönetime ihtiyacımız olup olmayacağıdır.
Farmasötik çerçeve (öngörülen eğitim standartları, yapılandırılmış testler, sürekli gözetim) tam olarak tahmin edemediğimiz kritik teknolojiler için kanıtlanmış bir model sunuyor. Shelley'nin dersi hiçbir zaman yaratılışın kendisiyle ilgili değildi. Yaratıcılar uzaklaştığında ne olacağıyla ilgiliydi. İki yüzyıl sonra, Del Toro'nun uyarlaması bu ay milyonlara ulaşırken, alınacak ders hala acil. Bu sefer, sentetik zekanın toplumumuzda hızla yayılmasıyla, diğer yolu seçme şansımız olmayabilir.
Dov Greenbaum hukuk profesörü ve İsrail'deki Reichman Üniversitesi'nde Zvi Meitar Gelişen Teknolojilerin Hukuki Etkileri Enstitüsü'nün yöneticisidir.
Mark Gerstein, Yale Üniversitesi'nde Albert L. Williams Biyomedikal Bilişim Profesörüdür.

Bir yanıt yazın