Avrupa Veri Koruma Kurulu (EDPB), yapay zeka (AI) modellerinin geliştirilmesi ve kullanılmasının önüne herhangi bir büyük engel koymamaktadır. Bu, Avrupa Veri Koruma Komiseri tarafından Genel Veri Koruma Yönetmeliği (GDPR) ile ilgili olarak yapay zekanın düzenlenmesine ilişkin Çarşamba günü yayınlanan bir açıklamadan ortaya çıkıyor.
Reklamcılık
Veri koruma uzmanlarına göre Meta, Google, OpenAI & Co., kişisel verilerin yapay zeka modelleri tarafından işlenmesinin yasal dayanağı olarak prensipte “meşru menfaate” dayanabilir. Ancak EDPB bu izni bir dizi koşula bağlıyor.
3 adımlı test
Ulusal veri koruma yetkilileri, meşru bir menfaatin mevcut olup olmadığını değerlendirmek için 3 adımlı bir test kullanmalıdır. Öncelikle veri işleme hakkının meşru olup olmadığı kontrol edilmelidir. Bunu, veri işlemenin gerekli olup olmadığını belirlemek için bir “gereklilik testi” izler. Son olarak veri sahiplerinin temel hakları ile yapay zeka sağlayıcılarının çıkarları tartılmalıdır.
EDPB, temel hakları dengelemek amacıyla, yapay zeka modellerinin geliştirme veya uygulamaya koyma aşamasında sivil haklara yönelik “belirli risklerin” ortaya çıkabileceğini vurguluyor. Bu tür etkileri değerlendirmek için denetleyici otoritelerin “modeller tarafından işlenen veri türünü”, bağlamı ve “olası diğerlerini” dikkate alması gerekir. Prensip olarak “bireysel davanın özel koşulları” dikkate alınmalıdır.
Görüşe göre komite, kullanıcıların siber güvenliği artırmasına yardımcı olmayı amaçlayan bir ses asistanını örnek olarak gösteriyor. Bu tür hizmetler bireylere faydalı olabilir ve meşru bir menfaate dayanabilir. Ancak bu yalnızca işlemenin kesinlikle gerekli olduğu ve dahil edilecek tüm haklar arasında bir dengenin korunduğu durumlarda geçerlidir.
Anonimleştirmeye ilişkin açıklamalar
EDPB'ye göre, yasa dışı olarak işlenen kişisel bilgilerin bir yapay zeka modelinin geliştirilmesinde kullanılması durumunda kullanımı tamamen yasaklanabilir. İstisna: Her şey gerektiği gibi anonimleştirilir. Bunun için de kriterler var: Anonimleştirme durumunda, kişilerin “doğrudan veya dolaylı olarak kimliğinin belirlenmesi” ihtimali çok düşük olmalıdır. Ayrıca bu tür kişisel bilgilerin sorgulama yoluyla modelden çıkarılamaması da sağlanmalıdır.
EDSA, İrlanda Denetleme Otoritesinin (DPC) teşviki üzerine 2023 yılının ortalarında ChatGPT çevresinde bir görev gücü oluşturdu. Bu, İtalyan veri koruma otoritesinin sisteme kısa süreliğine yasak koymasına tepkisiydi. Veri koruma yetkilileri, ortak bildiriyle AB'de tek tip yasal uygulama sağlamak istiyor.
EDSA Başkanı Anu Talus, “Bu yeniliklerin etik ve güvenli bir şekilde yapılmasını ve herkese fayda sağlamasını sağlamalıyız” diye vurguladı. BT derneği CCIA, meşru menfaate ilişkin açıklamaları memnuniyetle karşıladı. Bunlar “daha fazla hukuki belirliliğe doğru atılmış önemli bir adımdır”.
(vbr)
Bir yanıt yazın