Bilgi paylaşımı, telif hakkı ve şeffaflığa saygı: Bunlar, bugünden itibaren IA modelleri geliştiren şirketlerin (GPAI) Avrupa'da saygı duyması gereken yeni yükümlülüklerdir. Yapay Zeka Yasası'nın yürürlüğe girmesinden bir yıl sonra, yasaklanmış IA uygulamaları ve zorunlu eğitimin başlatılmasından sonra, şimdi büyük yapay zeka modelleri üzerindeki kuralların sırasıdır.
GPAI nedir?
Bunlar, büyük miktarlarda veri ile eğitilmiş ve genellikle diğer IA sistemlerine entegre edilen çok çeşitli görevleri yerine getirebilen modellerdir. GPAI ile ilgili yönergelerde Komisyon, 10^23 flopun üzerindeki hesaplama kaynakları ile eğitilmişse ve metinden başlayan görüntüler veya videolar dili (metin veya ses şeklinde) üretebiliyorsa, bir algoritmanın bu kategorinin bir parçası olduğunu açıkladı.
Model ayrıca önemli bir genellik sunmalı ve çok çeşitli farklı görevlerle rekabet edebilmelidir. Belirtilen bilgi işlem gücü ile eğitilmiş dilsel modeller, bu nedenle satranç ve video oyunları oynamak veya fotoğrafların çözünürlüğünü artırmak için tasarlanmış olanlar değil, GPAI arasındadır.
Sonra sistemik riskli modeller var, bu da Kanun daha fazla yükümlülükler sunuyor. Bunlar, Avrupa pazarı üzerinde önemli bir etkiye sahip olabilen algoritmalardır. Bu durumda, dikkate alınması gereken eşik 10^25 flop ve Komisyon onları Expriato'yu belirleme gücüne sahiptir.
Şeffaflık yükümlülükleri
Tedarikçiler her şeyden önce şeffaflık için gereklidir. Aslında Kanun, eğitim sürecinin detayları da dahil olmak üzere modelle ilgili teknik belgelerin talep üzerine yetkililere teslim edilmesini gerektirir.
Şirketler ayrıca, Valley tedarikçilerine – yani bir GPAI'yi bir IA sistemine entegre etmek isteyenlere – modelin becerilerini ve sınırlarını anlamalarına ve yasal yükümlülüklerine uymalarına yardımcı olmak için bilgi ve belgeler sunmak zorunda kalacaklar.
AI Yasası, toplanacak minimum bilgileri listeler. Ayrıca, GPAI üzerindeki davranış kuralları ile, bu gereksinimleri yerine getirmek için kolay bir standart model yayınlandı.
Telif hakkının korunması
Yasa daha sonra tedarikçilerin Avrupa telif hakkı mevzuatına uymak için etkili politikalar uygulamalarını ve hakların haklarını tespit etmek ve saygı göstermek için kesme teknolojilerini kullanmasını gerektirir.
Ayrıca bu durumda, davranış kodu bu yeni yükümlülüğü karşılamak için bir dizi pratik çözüm listeler.
Model Eğitim Raporu
IA şirketleri ayrıca algoritmayı eğitmek için kullanılan içeriğin yeterince ayrıntılı bir özetini yayınlamalıdır. Tedarikçilerin adapte olmasına yardımcı olmak için Komisyon, şirketlerin referans olarak kullanabileceği ve aynı zamanda telif hakkı vatandaşlarının ve sahiplerinin kendilerini sorgulamalarına ve korumalarına izin verecek bir model yayınladı.
Sistemik risk durumunda kurallar
Bugünden itibaren sistemik risk modelleri için ek yükümlülüklere uymak da gerekmektedir. Tedarikçiler standart protokoller ve kesme araçları kullanarak bir model değerlendirmesi yapmalıdır. Bu modellerden türetilebilecek olası sistemik riskleri değerlendirmek ve azaltmak ve yetkililere ciddi kazalar bildirmek de gerekmektedir.
Bu şirketlerin ayrıca, hırsızlıkları, uygunsuz kullanımları veya arızalardan türetilen yaygın sonuçları önlemek için hem model hem de fiziksel altyapısı için siberliğin yeterli şekilde korunmasını garanti etmeleri gerekmektedir.
Davranış Kuralları, tüm bir bölümü sistemik riskli IA modellerine ayırır ve bu risklerin yönetimi için somut uygulamaları listeler.
Bir yanıt yazın