Deepfake'ler nasıl tespit edilir: Seçmenler daha fazlasını görüyor ve bunların etkilerinden korkuyor

Eski Başkan Trump'ın Butler, Pennsylvania'daki bir suikast girişiminden sağ kurtulmasından haftalar sonra, Başkan Yardımcısı Kamala Harris'in bir mitingde “Donald Trump onurlu bir şekilde ölemez bile” dediğini gösteren bir video sosyal medyada dolaşıma girdi.

Klip öfke yarattı ama bu bir yalandı; Harris bunu asla söylemedi. Cümle, esrarengiz bir şekilde Harris'inkine benzeyen, yapay zeka tarafından üretilen bir ses tarafından okundu ve ardından Harris'in gerçekten yaptığı bir konuşmaya eklendi.

Pazar araştırma şirketi 3Gem tarafından 2000 yetişkinle yapılan yeni bir ankete göre, seçmenlerin büyük bir yüzdesi bu tür bir manipülasyona tanık oluyor ve bunun seçimler üzerindeki etkisine ilişkin endişeler artıyor. Siber güvenlik şirketi McAfee tarafından yaptırılan anket, görüşülen kişilerin %63'ünün son 60 gün içinde deepfake gördüğünü, %15'inin ise 10 veya daha fazlasına maruz kaldığını ortaya çıkardı.

Ankette, çeşitli deepfake'lere maruz kalmanın ülke genelinde oldukça aynı olduğu ve en yaygın görülen türün siyasi deepfake olduğu belirtildi. Ancak siyasi temalı deepfake'ler özellikle Michigan, Pensilvanya, Kuzey Carolina, Nevada ve Wisconsin'de yaygındı; bu eyaletler, oylarıyla başkanlık seçimini belirleyebiliyordu.

Ankete katılanlar çoğu durumda deepfake'lerin parodi olduğunu söyledi; azınlık (%40) yanıltmak için tasarlandı. Ancak ulusal akıl sağlığı hizmetleri sağlayıcısı Thriveworks'ün baş danışmanlık görevlisi Ryan Culkin, parodilerin ve yanıltıcı olmayan deepfake'lerin bile izleyicileri önyargılarını doğrulayarak veya medyaya olan güvenlerini azaltarak bilinçaltında etkileyebileceğini söyledi.

Culkin, “Zaten stresli bir döneme yeni bir katman daha ekliyoruz” dedi.

McAfee için ankete katılanların ezici bir çoğunluğu (%91), derin sahtekarlıkların muhtemelen halkın bir aday hakkındaki izlenimini değiştirerek veya seçim sonuçlarını etkileyerek seçime müdahale etmesinden endişe duyduklarını söyledi. Neredeyse %40'ı kendilerini son derece endişeli olarak tanımladı. Muhtemelen yılın bu döneminden dolayı, deepfake'lerin seçimleri etkilemesi, halkın dikkatini çekmesi veya medyaya olan güveni baltalaması konusundaki endişeler Ocak ayında yapılan bir ankete göre keskin bir şekilde artarken siber zorbalık, dolandırıcılık ve sahte pornografi için kullanılan deepfake'lere ilişkin endişeler azaldı. kurmak.

Dikkate değer diğer iki bulgu: Ankete katılan 10 kişiden yedisi, haftada en az bir kez, bunların gerçek mi yoksa yapay zeka tarafından mı oluşturulduğunu merak etmelerine neden olan materyalle karşılaştıklarını söyledi. 10 kişiden altısı bu soruyu cevaplayabileceklerinden emin olmadıklarını söyledi.

Şu anda hiçbir federal veya Kaliforniya kanunu, reklamlardaki deepfake'leri özel olarak engellememektedir. Vali Gavin Newsom geçen ay aldatıcı, dijital olarak değiştirilmiş kampanya materyallerini seçimden sonraki 120 gün içinde yasaklayacak bir yasa tasarısını imzaladı, ancak bir federal yargıç bunu 1. Değişiklik gerekçesiyle geçici olarak engelledi.

Blank Rome hukuk firmasının ortağı ve gizlilik hukuku uzmanı Jeffrey Rosenthal, Kaliforniya yasalarının seçimden sonraki 60 gün içinde “maddi olarak aldatıcı” kampanya reklamlarını yasakladığını söyledi. Eyaletin reklamlardaki deepfake'lere karşı artırılmış bariyeri önümüzdeki yıla kadar devreye girmeyeceğini, ancak yeni bir yasanın siyasi reklamların yapay zeka tarafından oluşturulan içerik içermesi halinde etiketlenmesini gerektireceğini söyledi.

Deepfake'lerle ilgili yapabilecekleriniz

McAfee, yapay zeka tarafından oluşturulan içerikli medyanın tespit edilmesine yardımcı olan yazılım araçları sunan birkaç şirketten biridir. Diğer ikisi ise Google Chrome tarayıcısı için şüpheli derin sahtekarlıkları işaretleyen ücretsiz uzantılar sunan Hiya ve BitMind'dir.

Hiya'nın Seattle'daki pazarlamadan sorumlu başkan yardımcısı Patchen Noelke, şirketinin teknolojisinin, ses verilerinin bir insan yerine bir bilgisayar tarafından oluşturulduğunu öne süren kalıplar için baktığını söyledi. Noelke bunun bir kedi-fare oyunu olduğunu söyledi; Dolandırıcılar tespit edilmekten kurtulmanın yollarını bulacak ve Hiya gibi şirketler bunlarla yüzleşmeye uyum sağlayacak.

Austin, Teksas'taki BitMind'in kurucu ortağı Ken Jon Miyachi, bu noktada şirketinin teknolojisinin yalnızca hareketsiz görüntüler üzerinde çalıştığını, ancak önümüzdeki aylarda video ve ses dosyalarında yapay zekayı tespit edecek güncellemeler olacağını söyledi. Ancak deepfake üretmeye yönelik araçların bu noktada bunları tespit etmeye yönelik araçlardan ileride olduğunu söyledi; bunun nedeninin kısmen “üretken tarafa önemli ölçüde daha fazla yatırım yapılması” olduğunu söyledi.

Bu, McAfee Baş Teknik Sorumlusu Steve Grobman'ın internette gördüğünüz materyaller hakkında sağlıklı şüphecilik olarak adlandırdığı şeyin sürdürülmesine yardımcı olmasının bir nedenidir.

Deepfake'e “Hepimiz duyarlı olabiliriz” dedi, “özellikle de zaten sahip olduğumuz doğal bir önyargıyı doğruluyorsa.”

Ayrıca, yapay zeka tarafından oluşturulan görüntü ve seslerin orijinal materyallere yerleştirilebileceğini de unutmayın. Grobman, “Bir video çekmek ve bunun sadece beş saniyesini değiştirmek mesajın tonunu gerçekten değiştirebilir” dedi.

“Çok fazla değişmene gerek yok. Bir konuşmaya doğru zamanda eklenen bir cümle, anlamı gerçekten değiştirebilir.”

Eyalet Senatörü Josh Becker (D-Menlo Park), kendi yazdığı Kaliforniya Yapay Zeka Şeffaflık Yasası da dahil olmak üzere yapay zeka tarafından oluşturulan içeriğin daha fazla ifşa edilmesini zorunlu kılan en az üç eyalet yasasının gelecek yıl yürürlüğe gireceğini belirtti. Bu önlemlere rağmen devletin hâlâ bölge sakinlerinin dezenformasyonu tespit etme ve durdurma konusunda aktif rol almasına ihtiyacı olduğunu söyledi.

İnsanların yapabileceği dört temel şeyin güçlü duyguları kışkırtan içeriği sorgulamak, bilgi kaynağını doğrulamak, yalnızca güvenilir kaynaklardan gelen bilgileri paylaşmak ve şüpheli içeriği seçim yetkililerine ve paylaşıldığı platformlara bildirmek olduğunu söyledi. Becker, “Bir şey sizi çok duygusal olarak etkiliyorsa, muhtemelen bir adım geri çekilip bunun nereden geldiğini düşünmeye değer” dedi.

McAfee, web sitesinde olası deepfake'leri belirlemek, seçimle ilgili dolandırıcılıklardan kaçınmak ve sahte medyayı yaymamak için bir dizi ipucu sunuyor. Bunlar şunları içerir:

  • Metinlerde tekrarlara, sığ akıl yürütmelere ve gerçeklerin eksikliğine bakın. Site, “Yapay zeka çoğu zaman fazla bir şey söylemeden çok şey söylüyor, bilgili görünmek için ağır bir kelime dağarcığının arkasına saklanıyor” diye tavsiyede bulunuyor.
  • Görüntü ve seste, konuşmacının tutarsızlıklarını ve tuhaf hareketlerini aramak için yakınlaştırın ve gördüklerinizle eşleşmeyen sesleri dinleyin.
  • Materyali diğer köklü sitelerdeki içerikle desteklemeye çalışın.
  • Hiçbir şeyi göründüğü gibi almayın.
  • Kaynağı inceleyin ve eğer materyal bir alıntıysa, orijinal medyayı bağlam içinde bulmaya çalışın.

Grobman, kendi gözlerinizle göremediğiniz veya %100 güvenilir bir kaynaktan görmediğiniz her şey için “fotoğrafla yapılmış olabileceğini varsayın” tavsiyesinde bulundu. Ayrıca dolandırıcıların resmi seçim sitelerini kopyalayıp ardından oy verme yerlerinin yeri ve saatleri gibi bazı ayrıntıları değiştirmelerinin kolay olduğu konusunda da uyardı.

Bu yüzden oylama ile ilgili sitelere yalnızca URL'leri .gov ile biterse güvenmelisiniz, “Nereden başlayacağınızı bilmiyorsanız, oy.gov'dan başlayabilirsiniz.” Dedi. Site, seçimler ve oy kullanma haklarıyla ilgili bilgilerin yanı sıra her eyaletin resmi seçim sitesine bağlantılar da sunuyor.

Grobman, “Dijital dünyamızın büyük bir kısmının potansiyel olarak sahte olması, her yerde güveni zedeliyor” dedi. Aynı zamanda şöyle dedi: “Suistimale, bir suça, etik olmayan bir davranışa ilişkin meşru bir kanıt mevcut olduğunda, bunların sahte olduğunu iddia etmek çok kolaydır. … Kanıt mevcut olduğunda bireyleri sorumlu tutma yeteneğimiz, dijital sahtekarlıkların yaygınlaşması nedeniyle de zarar görüyor.”


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir