Meta'nın mahkeme kayıpları yapay zeka araştırmaları ve tüketici güvenliği açısından sorun yaratıyor

Meta CEO'su Mark Zuckerberg, 19 Şubat 2026'da Amerika Birleşik Devletleri'nin Los Angeles kentindeki önemli bir sosyal medya bağımlılığı davasında şirketi savunduktan sonra Los Angeles şehir merkezindeki Federal Adliye'den ayrıldı.

Jon Putman | Anadolu | Getty Images

On yıldan fazla bir süre önce, Meta – o zamanlar Facebook olarak biliniyordu – sosyal ağ hizmetlerinin kullanıcıları nasıl etkilediğini analiz etmek için sosyal bilim araştırmacılarını işe aldı. Bu, şirketin ve meslektaşlarının, yeniliklerinin faydalarını ve potansiyel risklerini anlama konusunda ciddi olduklarını göstermenin bir yoluydu.

Ancak Meta'nın bu haftaki mahkeme kayıplarının da gösterdiği gibi, araştırmacıların çalışmaları bir yük haline gelebilir. Biri New Mexico'da, diğeri Los Angeles'ta olmak üzere her iki davada da ifade veren eski Facebook yöneticisi Brian Boland, Meta'nın şirket içi araştırmalarından ve belgelerinden elde edilen lanet olası bulguların şirketin kendisini kamuya tanıtma biçimiyle çeliştiğini söyledi. İki davadaki jüriler, Meta'nın siteyi yeterince denetlemediğini ve çocukları tehlikeye attığını belirledi.

Mark Zuckerberg'in şirketi, birkaç yıl önce Facebook araştırmacısı Frances Haugen'in önemli bir ihbarcı haline gelmesinin ardından araştırma ekiplerine baskı yapmaya başlamıştı. OpenAI ve Anthropic gibi daha yeni teknoloji şirketleri daha sonra araştırmacılara büyük yatırım yaptı ve onları modern yapay zekanın kullanıcılar üzerindeki etkisini incelemek ve bulgularını yayınlamakla görevlendirdi.

Yapay zekanın bazı kullanıcılar üzerindeki zararlı etkileri nedeniyle artık daha fazla ilgi görmesi nedeniyle, bu şirketlerin araştırmayı finanse etmeye devam etmenin mi yoksa onu durdurmanın mı kendi çıkarlarına olduğunu sorması gerekiyor.

Boland bir röportajda şunları söyledi: “Şirket içinde oluşturulan ve olaylara bakmaya başlayabilen ekiplerin olduğu bir dönem vardı ve kısa bir süre için, bu ürünlerde olup bitenleri bugün anladığımdan biraz daha özgürce inceleyen kesinlikle seçkin araştırmacılar vardı.” dedi Boland.

Meta'nın bu haftaki iki yenilgisi farklı vakalara odaklanıyordu ancak ortak bir temaları vardı: Şirket, ürünlerinin zararları hakkında bildiklerini kamuoyuyla paylaşmadı.

Jüri üyelerinin, yönetici e-postaları, sunumlar ve Meta personeli tarafından yürütülen dahili araştırmalar da dahil olmak üzere milyonlarca kurumsal belgeyi değerlendirmesi gerekiyordu. Belgeler, Instagram'da istenmeyen cinsel yaklaşımlara maruz kalan genç kullanıcıların endişe verici bir yüzdesini gösteren dahili anketleri içeriyordu. Ayrıca Meta'nın sonunda durdurduğu ve Facebook kullanımını kısıtlayan kişilerin daha az depresyona ve kaygıya sahip olduğunu ima eden bir araştırma da vardı.

Davacıların avukatları, davalarda iddialarını ileri sürmek için yalnızca dahili araştırmalara dayanmadılar; ancak bu çalışmalar, Meta'nın iddia edilen suçluluğuna ilişkin konumlarını güçlendirmeye yardımcı oldu. Meta'nın savunma ekipleri, bazı araştırmaların eski olduğunu, bağlam dışına çıkarıldığını ve yanıltıcı olduğunu, şirketin nasıl çalıştığına ve güvenliğe nasıl baktığına ilişkin kusurlu bir görüş sunduğunu savundu.

'Hikayenin her iki tarafı'

Boland, “Jüri hikayenin her iki tarafını da dinlemeli ve gerçeklerin oldukça adil bir şekilde sunuluşunu dinlemeli ve gördüklerine dayanarak bir karar vermeli” dedi. “Ve her iki jüri de çok farklı davalarla net kararlarla geri döndü.”

Meta ve Google'ın LA davasında da sanık olan YouTube, temyize gideceklerini söyledi.

New Mexico davasında şirket içi uzman danışman olarak görev yapan psikolog ve avukat Lisa Strohman, Meta'daki ve teknoloji endüstrisindeki liderlerin, halkın gözüne girmek için iç araştırmaları kendi yararlarına kullanabileceklerini düşünmüş olabileceklerini söyledi.

Strohman, “Sanırım araştırmacıların ebeveynler ve aile üyeleri olduğunu anlayamadıkları şey” dedi. “Ve bence onların farkına varamadıkları şey, bu insanların satın alınmayacağıydı.”

Araştırma kamuoyuna yayılmaya başladığında, yöneticilerin beklediği halkla ilişkiler zaferinin geri tepmesi bekleniyordu. Meta için en zarar verici olay, 2021'de, eski bir Facebook ürün yöneticisi olan ve ihbarcı olan Haugen'in, şirketin ürünlerinin potansiyel zararlarını bildiğini öne süren bir dizi belgeyi sızdırmasıyla meydana geldi.

Eski Facebook çalışanı Frances Haugen, 1 Aralık 2021'de Washington DC'de Capitol Hill'de Enerji ve Ticaret Komitesi İletişim ve Teknoloji Alt Komitesi'nin duruşmasında konuşuyor.

Brendan Smialowski | AFP | Getty Images

Kâr amacı gütmeyen Çocuklar ve Ekranlar: Dijital Medya ve Çocuk Gelişimi Enstitüsü'nün araştırma ve program direktörü Kate Blocker, “Haugen'in açıklamaları küresel olarak önemli bir dönüm noktasıydı; yalnızca şirketlerin kendileri için değil, araştırmacılar, politika yapıcılar ve daha geniş halk için de” dedi.

Sızıntılar aynı zamanda Meta'da ve teknoloji endüstrisinde de büyük değişikliklere yol açtı ve bu da şirketler için ters etki olarak görülebilecek araştırmaları ayıklamaya başladı. CNBC'nin daha önce bildirdiğine göre, iddia edilen zararlar ve ilgili konuları inceleyen birçok ekibin bağlantısı kesildi.

Bazı şirketler, üçüncü taraf araştırmacıların platformlarını incelemek için kullandıkları hizmetlerinin belirli araçlarını ve özelliklerini de kaldırmaya başladı.

Blocker, “Şirketler artık devam eden araştırmaları bir sorumluluk olarak görebilir, ancak bağımsız, üçüncü taraf araştırmaları desteklenmeye devam etmelidir” dedi.

Tech Oversight Project'in genel müdürü Sacha Haworth, bu haftaki denemelerde kullanılan dahili araştırmaların çoğunun yeni açıklamalar içermediğini ve belgelerin çoğunun zaten diğer ihbarcılar tarafından yayınlandığını söyledi. Haworth, denemelerin eklediği şeylerin, gerekli bağlamı sunan “e-postaların, sözcüklerin, ekran görüntülerinin, şirket içi pazarlama sunumlarının, notların” olduğunu söyledi.

Teknoloji endüstrisi artık agresif bir şekilde yapay zekaya yönelirken Meta, OpenAI ve Google gibi şirketler, araştırma ve güvenlik yerine ürünlere öncelik veriyor. Bu, Blocker'ı endişelendiren bir trend ve “önceki sosyal medyada olduğu gibi, yapay zeka şirketlerinin ürünleri hakkında ne üzerinde çalıştıklarına ilişkin kamu görünürlüğü sınırlı” dedi.

Blocker, “Yapay zeka şirketleri çoğunlukla modelleri (model davranışı, model yorumlanabilirliği ve hizalama) kendileri inceliyor gibi görünüyor, ancak sohbet robotlarının ve dijital asistanların çocuk gelişimi üzerindeki etkisine ilişkin araştırmalarda önemli bir boşluk var” dedi. “Yapay zeka şirketlerinin geçmişteki hataları tekrarlamama şansı var; bu şirketlerin platformları hakkında bildiklerini kamuoyuyla paylaşan ve daha fazla bağımsız değerlendirmeyi destekleyen şeffaflık ve erişim sistemlerini acilen kurmamız gerekiyor.”

KOL SAATİ: Sosyal medyadaki dönüm noktası niteliğindeki kararın ardından uyulması gereken düzenleyici baskı.

Google'da tercih ettiğiniz kaynak olarak CNBC'yi seçin ve iş dünyasındaki haberlerin en güvenilir isminin hiçbir anını kaçırmayın.

Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir