Yapay zeka uzmanı, Prenses Kate fotoğraf skandalının “ortak gerçeklik duygumuzun” aşındığını gösterdiğini söylüyor

Londra — Avrupa Parlamentosu, yapay zekanın kullanımını düzenleyen dünyanın ilk kapsamlı yasasını Çarşamba günü, tartışmalar sürerken kabul etti. düzenlenmiş bir fotoğraf Uzmanların söylediğine göre Galler Prensesi Catherine'in hikayesi, yeni yapay zeka teknolojilerine ilişkin farkındalığın bile toplumu nasıl etkilediğini gösteriyor.

Henry Ajder, “Bu görüntüye verilen tepki, eğer daha önce yayınlanmış olsaydı, son birkaç yılda gördüğümüz büyük yapay zeka patlamasından önce muhtemelen şu olurdu: 'Bu düzenleme veya Photoshop açısından gerçekten kötü bir iş'” Yapay zeka konusunda uzman ve derin sahteler, Haberler'e söyledi. “Ancak Kate Middleton'ın kamuoyunun gözünde yer almaması hakkındaki konuşma ve bunun teşvik edildiği türden komplocu düşünce nedeniyle, bu, yapay zeka tarafından oluşturulan görüntülere ilişkin bu yeni, daha geniş farkındalıkla birleştiğinde… konuşma çok ama çok farklı.”

Prenses Kate, en çok bilinen ismiyle “düzenleme” yaptığını itiraf etti fotoğraf Kendisinin ve üç çocuğunun fotoğrafı Pazar günü resmi sosyal medya hesaplarında paylaşıldı. Ne kendisi ne de Kensington Palace fotoğrafta neleri değiştirdiğine dair herhangi bir ayrıntı vermedi ancak bir tanesi Kraliyet gözlemcisi Haberler'e söyledi bir dizi fotoğraftan oluşturulmuş kompozit bir görüntü olabilirdi.

Ajder dedi ki Yapay zeka teknolojisive bunun neler yapabileceğine dair kamusal farkındalığın hızla artması, insanların “ortak gerçeklik duygusunun, sanırım, eskisinden daha fazla veya daha hızlı bir şekilde aşındığı” anlamına geliyor.

Bununla mücadele etmenin şirketlerin ve bireylerin üzerinde çalışması gerekeceğini söyledi.

AB'nin yeni Yapay Zeka Yasasında neler var?

Avrupa Birliği'nin yeni Yapay Zeka Yasası, teknolojiye risk temelli bir yaklaşım getiriyor. Spam filtreleri gibi daha düşük riskli yapay zeka sistemleri için şirketler gönüllü davranış kurallarına uymayı seçebilir.

Yapay zekanın elektrik ağlarına veya tıbbi cihazlara dahil olduğu, daha yüksek riskli olduğu düşünülen teknolojiler için yeni yasa kapsamında daha katı gereklilikler olacak. Polisin halka açık yerlerde yapay zeka teknolojisini kullanarak insanların yüzlerini taraması gibi yapay zekanın bazı kullanımları, istisnai durumlar dışında tamamen yasaklanacak.

AB, yaz başında yürürlüğe girmesi beklenen yasanın “yapay zeka söz konusu olduğunda insanların ve işletmelerin güvenliğini ve temel haklarını güvence altına alacağını” söylüyor.

“İçeriğe olan güvenimizi” mi kaybediyoruz?

Milyonlarca insan her gün akıllı telefonlarında ve diğer cihazlarında onlarca görsele bakıyor. Özellikle küçük ekranlarda olabiliyor tespit edilmesi çok zor Tespit edilmesi mümkünse, kurcalamayı veya yapay zeka kullanımını gösterebilecek tutarsızlıklar.

Mozilla Vakfı'nda dijital haklar avukatı ve kıdemli araştırmacı olan Ramak Molavi Vasse'i, Haberler'e şunları söyledi: “Bu, içeriğe ve gerçekliklerimizi nasıl oluşturduğumuza yönelik kırılganlığımızı gösteriyor.” “Gördüğümüze güvenemezsek bu gerçekten kötü. Zaten kurumlara olan güvenimiz azalmıyor. Güven ve medyaya olan güvenimiz de azalıyor, büyük teknolojilere bile güvenimiz azalıyor… ve politikacılar için. Dolayısıyla bu kısım demokrasiler için gerçekten kötü ve istikrarı bozucu olabilir.”

Vasse'i, bir içerik parçasının yapay zeka kullanılarak oluşturulup oluşturulmadığını tespit etme ve işaretlemeye yönelik farklı yöntemlerin etkinliğini inceleyen yakın tarihli bir raporun ortak yazarıdır. Tüketicileri ve teknoloji uzmanlarını eğitmek, resimlere filigran eklemek ve etiketlemek de dahil olmak üzere bir dizi olası çözüm bulunduğunu ancak bunların hiçbirinin mükemmel olmadığını söyledi.

“Gelişmenin gerçekleşme hızının çok hızlı olmasından korkuyorum. İlk etapta sorun yaratmak yerine hızı hızlandıran ve sorunu dağıtan teknolojiyi kavrayamayız ve gerçekten yönetip kontrol edemeyiz.” Vasse 'Haberler'e söyledim.

“Sahip olduğumuz tüm bilgi ekosistemini yeniden düşünmemiz gerektiğini düşünüyorum” dedi. “Toplumlar özel düzeyde, demokratik düzeyde güven üzerine kuruludur. İçeriğe olan güvenimizi yeniden yaratmamız gerekiyor.”

Baktığım şeyin gerçek olduğunu nasıl bilebilirim?

Ajder, yapay zeka konusunda şeffaflığı teknolojilerimize ve bilgi ekosistemlerimize yerleştirmenin yollarına yönelik daha geniş bir hedefin ötesinde, yapay zekanın bir medya parçasını değiştirmek veya oluşturmak için kullanılıp kullanılmadığını bireysel düzeyde söylemenin zor olduğunu söyledi.

Bunun, medya tüketicilerinin net kalite standartlarına sahip kaynakları belirlemelerini hayati önem taşıdığını söyledi.

“Bu tür eski medyaya yönelik güvensizliğin ve reddedilmenin arttığı bu ortamda, geleneksel medyanın aslında arkadaşınız olduğu veya en azından arkadaşınız olma ihtimalinin, haberlerinizi rastgele tweet atan insanlardan almaktan daha muhtemel olduğu bir dönem. Adjer, “Ya da, bilirsiniz, yatak odasında bir adamın size bu videonun neden sahte olduğuna dair analizler sunduğu Tiktok videoları” dedi. “Burası eğitimli, titiz araştırmacı gazeteciliğe daha iyi kaynak sağlanacağı ve genel olarak daha güvenilir olacağı yerdir.”


Deepfake'ler için bir “yalan dedektörü” oluşturma

05:36

Bir videoda birinin kaç kez göz kırptığını görmek için izlemek gibi görüntülerde yapay zekanın nasıl tanımlanacağıyla ilgili ipuçlarının, teknolojiler ışık hızıyla geliştikçe hızla güncelliğini yitirebileceğini söyledi.

Tavsiyesi: “Kendi bilginizin ve yeteneğinizin sınırlarının farkına varmaya çalışın. Şu anda genel olarak bilgi konusunda biraz alçakgönüllü olmanın önemli olduğunu düşünüyorum.”


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir