150'den fazla ebeveynden oluşan bir grup Cuma günü New York valisi Kathy Hochul'a bir mektup göndererek Sorumlu Yapay Zeka Güvenliği ve Eğitim (RAISE) Yasasını değişiklik yapmadan imzalamaya çağırdı. RAISE Yasası, Meta, OpenAI, Deepseek ve Google gibi büyük yapay zeka modellerinin geliştiricilerinin güvenlik planları oluşturmasını ve güvenlik olaylarının raporlanmasıyla ilgili şeffaflık kurallarına uymasını gerektiren moda bir yasa tasarısı.
Tasarı Haziran ayında hem New York Eyalet Senatosu'nda hem de Meclis'te kabul edildi. Ancak bu hafta Hochul'un, büyük yapay zeka şirketlerinin ağırlığını koyduktan sonra Kaliforniya'daki SB 53'te yapılan bazı değişikliklere benzer şekilde, RAISE Yasasının neredeyse tamamen yeniden yazılmasını önerdiği ve bunu teknoloji şirketleri için daha avantajlı hale getireceği bildirildi.
Pek çok yapay zeka şirketi, şaşırtıcı olmayan bir şekilde, doğrudan mevzuata karşı çıkıyor. Önemli olan Yapay Zeka İttifakı
Üyeleri arasında yer alan Meta, IBM, Intel, Oracle, Snowflake, Uber, AMD, Databricks ve Hugging Face, Haziran ayında New York milletvekillerine RAISE Yasası hakkındaki “derin endişelerini” ayrıntılarıyla anlatan ve yasanın “uygulanamaz” olduğunu belirten bir mektup gönderdi. Ve Perplexity AI, Andreessen Horowitz (a16z), OpenAI başkanı Greg Brockman ve Palantir kurucu ortağı Joe Lonsdale tarafından desteklenen AI yanlısı süper PAC olan Geleceğe Liderlik etmek, son reklamlarıyla RAISE Yasası'nın ortak sponsoru olan New York Eyaleti Meclis üyesi Alex Bores'i hedef alıyor.
ParentsTogether Action ve Tech Oversight Project adlı iki kuruluş, Cuma günü Hochul'a yazdığı mektupta imzacıların bazılarının “çocuklarını yapay zeka sohbet robotları ve sosyal medyanın zararına” kaybettiğini belirtti. İmzacılar, şu anda yasalaşması gereken “minimalist korkuluklar” olduğu için YÜKSELTME Yasasını çağırdılar.
Ayrıca, New York Eyaleti Yasama Meclisi tarafından kabul edilen tasarının “tüm yapay zeka geliştiricilerini düzenlemediğini, yalnızca yılda yüz milyonlarca dolar harcayan en büyük şirketleri” düzenlediğini vurguladılar. Büyük ölçekli güvenlik olaylarını başsavcıya bildirmeleri ve güvenlik planlarını yayınlamaları gerekecek. Geliştiricilerin ayrıca, 100 veya daha fazla kişinin ölümü veya ciddi yaralanması ya da kimyasal, biyolojik, radyolojik veya nükleer bir silahın yaratılmasından kaynaklanan para veya mülk haklarına 1 milyar dolar veya daha fazla zarar verilmesi olarak tanımlanan “makul olmayan bir kritik zarar riski yaratacaksa” bir sınır modeli yayınlamaları da yasaklanacak; veya “anlamlı bir insan müdahalesi olmadan hareket eden” ve “bir insan tarafından işlenirse” belirli suçların kapsamına giren bir yapay zeka modeli.
“Big Tech'in bu temel korumalara karşı derin muhalefeti tanıdık geliyor çünkü
Mektupta, bu kaçınma ve kaçma modelini daha önce de görmüştüm” ifadeleri yer alıyor: “Gençlere yönelik yaygın hasar –
zihinsel sağlıkları, duygusal istikrarları ve okulda çalışabilme yetenekleri de dahil olmak üzere
En büyük teknoloji şirketlerinin algoritmik uygulamaları geliştirmeye karar vermesinden bu yana geniş çapta belgelendi.
şeffaflığın, gözetimin veya sorumluluğun olmadığı sosyal medya platformları.”

Bir yanıt yazın