Anthropic'in yapay zeka güvenlik modeli Avrupa için bir efsane olmaya devam ediyor
Reklamdan sonra devamını okuyun
Anthropic, özellikle yazılımdaki güvenlik açıklarını tespit eden yeni Claude Mythos modelinin kamuya açıklanamayacak kadar tehlikeli olduğunu düşünüyor. ABD'de aralarında Apple, Microsoft ve Amazon'un da bulunduğu on iki teknoloji şirketinin yazılımlarını bu yazılımla test etmesine hâlâ izin veriliyor. Anthropic'in adını vermediği 40 kuruluşun daha erişimi var. Bu durum öğrenilir öğrenilmez, ABD hükümet kurumları sistemik öneme sahip bankaların başkanlarıyla derhal kriz görüşmeleri düzenledi.
Avrupa dışarıda bırakıldı. Politico dergisine göre ankete katılan sekiz Avrupalı siber güvenlik yetkilisinden yalnızca BSI'nın Anthropic ile herhangi bir teması vardı; modele doğrudan erişim sağlanamadı. Mythos'u yalnızca Büyük Britanya'nın Yapay Zeka Güvenlik Enstitüsü'nün test etmesine izin verildi: on denemeden üçünde sistem, simüle edilmiş bir kurumsal ağı tamamen ele geçirmeyi başardı. Ancak test ortamları aktif savunucuları veya gözetim sistemlerini içermiyordu. AB Yapay Zeka Yasası ve Siber Dayanıklılık Yasası yalnızca AB pazarında sunulan modeller için geçerlidir. Mythos orada mevcut olmadığından yetkililerin resmi bir kontrolü yoktur.

Sivil haklar aktivistleri Meta Akıllı Gözlüklerdeki yüz tanımaya karşı uyarıyor
Amerikan Sivil Özgürlükler Birliği (ACLU) liderliğindeki 75 ABD sivil haklar örgütü, Meta'ya açık bir mektupla akıllı gözlüklerinde yüz tanıma özelliğini kullanma planlarını derhal durdurması çağrısında bulunuyor. Şubat ayında milyonlarca kez satılan gözlüklerin bu yıl bu işlevi alabileceği açıklanmıştı. Kuruluşlar uyarıyor: Her taşıyıcı bunu, örneğin protestolarda, doktor muayenehanelerinde veya mağazalarda çevrelerindeki yabancıları tanımlamak ve dijital veri tabanları aracılığıyla işler, alışkanlıklar ve sağlıkla ilgili hassas bilgilere erişmek için kullanabilir.
ACLU aynı zamanda tüketicileri Meta'ya yazıp endişelerini dile getirmeye çağırdı.
Ukrayna ordusu robotlarla düşman mevzilerini ele geçirdi
Reklamdan sonra devamını okuyun
Ukrayna ordusu ilk kez yalnızca karadaki robotları ve insansız hava araçlarını kullanarak bir Rus mevzisini ele geçirdi. Başkan Zelenskyj, X'te yedi farklı robot sisteminin kullanıldığını söyledi. Karşıt birlikler herhangi bir Ukrayna kaybı olmadan teslim oldu. Stratejik ve Uluslararası Çalışmalar Merkezi'nin bir raporunda şu sınıflandırma yapılıyor: İnsansız, otonom anlamına gelmiyor. Askerler yerdeki robotları uzaktan kumandayla manuel olarak kontrol etmeye devam etti.
Ancak yapay zeka bireysel işlevleri önemli ölçüde geliştiriyor. Rapora göre, hedefe yaklaşırken otonom navigasyon, istikrarlı bir radyo bağlantısı veya yüksek nitelikli pilotlar olmadan, drone'ların isabet oranını maksimum 20'den yüzde 80'e kadar artırıyor. Otomatik hedef tanıma, savaşta bir kilometre mesafede çalışır ve tankları, topçuları, piyadeleri ve mankenleri tanımlar. Ukraynalı savunma şirketleri, doğrudan insansız hava araçlarının içindeki ucuz çiplerle çalışan küçük, özel modellere güveniyor. Şu anda gerçek bir drone sürüsü veya tamamen otonom silah sistemi bulunmuyor. Saldırı kararları verirken kontrol insanlarda kalır.
Almanlar deepfakeleri çürütme yeteneklerini abartıyor
Almanya'da ankete katılan İnternet kullanıcılarının neredeyse yarısı yapay zeka tarafından oluşturulan içeriği tanıyabildiklerini söylüyor. Ancak Cybersecurity Monitor 2026'nın özel değerlendirmesine göre neredeyse hiç kimse kontrol etmiyor. Üçüncüsü hiçbir zaman ortak bir doğrulama yöntemi kullanmadı. Yalnızca yüzde 28'i görüntülerdeki hatalı gölgeler ya da deforme olmuş uzuvlar gibi grafiksel tutarsızlıkları özellikle aradı ve yalnızca yüzde 19'u kaynağı kontrol etti.
BSI Başkanı Claudia Plattner, riskleri ve yanlış bilgileri erken tespit etmek için artık tüketicilerin yapay zeka içeriğini tanımlamasının önemli olduğu konusunda uyarıyor. BSI giderek farkındalığı artırmaya ve rehberlik sunmaya odaklanıyor.
AI polip tespitinin deneyimli doktorlara pek faydası yoktur
Alman özel muayenehanelerinde yapılan randomize bir çalışma, yapay zeka destekli polip tespitinin, kolonoskopi sırasında deneyimli gastroenterologların isabet oranını önemli ölçüde artırmadığını gösteriyor. Yeterli deneyime sahip doktorlar, AI olan ve olmayan aynı sayıda polip buldu. Ortak yazar, Würzburg Üniversite Hastanesi Gastroenterolojide Dijital Dönüşüm Profesörü Dr. Alexander Hann, teknolojinin faydalarını otomatik raporlama veya kalite parametrelerinin kaydedilmesi gibi ikincil işlevlerde görüyor.
Deneyimsiz doktorların dikkatli olması tavsiye edilir. 2025'in sonlarında yapılan bir araştırma, araştırmacıların performansının yapay zekanın kullanılmaya başlanmasından sonraki ilk üç ayda sistem olmadan çalıştıklarında düştüğünü ortaya çıkardı. Ancak üç yıl süren ikinci bir çalışma, uzun vadedeki bu yetenek kaybını doğrulayamadı. Kısa vadede yapay zekaya bağımlılık kişinin kendi yeteneklerini zayıflatabilir ancak uzun vadede buna dair güvenilir kanıt hâlâ mevcut değil.
Yapay zeka aslında ne kadar akıllı? Üretken yapay zekanın işimiz, boş zamanlarımız ve toplumumuz açısından ne gibi sonuçları var? Haberler'nin “Yapay Zeka Güncellemesi”nde The Decoder ile birlikte size hafta içi her gün en önemli yapay zeka gelişmelerine ilişkin güncellemeleri sunuyoruz. Cuma günleri uzmanlarla yapay zeka devriminin farklı yönlerini inceliyoruz.
ABD eyaletinde veri merkezleri kurmaya yönelik ilk yasak
Maine'in, 20 megavattan fazla elektrik tüketen veri merkezlerinin inşasını yasaklayan ilk ABD eyaleti olması bekleniyor. Üst ve alt meclisler büyük çoğunlukla Kasım 2027'ye kadar moratoryum yönünde oy kullandı. Eksik olan tek şey Vali Janet Mills'in imzası. Karantina döneminde yetkililer, çalışanlar, şirketler ve çevre gruplarından oluşan bir çalışma grubu, elektrik arzı ve çevre üzerindeki sonuçları inceleyecek ve Şubat 2027'ye kadar nihai bir rapor sunacak.
Girişim, ABD'deki yapay zeka odaklı veri merkezi inşaatı patlamasına karşı daha geniş bir karşı hareketin parçası. Diğer eyaletlerde de benzer yasalar hazırlanıyor.
Mahkemede AI halüsinasyonları
Giderek daha fazla avukat, özetlerini yazmak için yapay zeka araçlarını kullanıyor ve sonuçları mahkemede görünür hale geliyor. Modeller var olmayan yargılardan alıntı yapıyor, beyanları tahrif ediyor veya kararları yanlış beyan ediyor. HEC Paris işletme okulundan hukuk uzmanı Damien Charlotin, bu tür vakaları kaydeden bir veritabanı işletiyor. Nisan 2026 itibarıyla, mahkemelerin yapay zekanın yanlış belgeleri nedeniyle kişilere yaptırım uyguladığı 1.300'den fazla davayı kaydediyor; bunların 800'ü yalnızca ABD'de. Bildirilmeyen vakaların sayısının çok daha yüksek olması muhtemeldir.
Cezalar giderek ağırlaşıyor. Oregon'daki bir federal mahkeme geçen ay bir avukata 100.000 dolardan fazla yaptırım uyguladı. Bazı ABD mahkemeleri etiketleme gereklilikleri getirmiştir: Yapay zeka ile oluşturulan veya düzenlenen her belgenin bu şekilde işaretlenmesi gerekir. Eleştirmenler bunun pratik olmadığını düşünüyor çünkü yapay zeka artık neredeyse tüm hukuk firması yazılımlarına entegre edilmiş durumda ve bu nedenle neredeyse her belgenin etiketlenmesi gerekiyor.
OpenAI finansal start-up Hiro'yu devraldı
OpenAI, kişisel bir yapay zeka finansal danışmanı geliştiren bir girişim olan Hiro'yu satın aldı. İlgililer satın alma fiyatı hakkında herhangi bir bilgi vermedi. Hiro, kullanıcıların maaş, borçlar ve aylık harcamalar gibi verileri girmesine ve bunları finansal senaryoları hesaplamak için kullanmasına izin verdi. Başlangıç, müşterilerinin 1 milyar dolardan fazlasını yönetmesine yardımcı olduğunu söylüyor.
OpenAI açıkça öncelikle çalışanlarla ilgilidir. Hiro artık yeni kayıtları kabul etmeyecek ve hizmetini Nisan 2026'da sonlandıracak. Kullanıcı verileri OpenAI'ye gitmeyecek ve Mayıs 2026'da silinecek. OpenAI halihazırda ChatGPT için kendi finans özelliği üzerinde çalışıyor ve yeni ekiple bu planları hızlandırabilir.
Microsoft, Norveç'teki OpenAI veri merkezini devraldı
Microsoft, Kuzey Kutup Dairesi'nin kuzeyinde, Norveç'in Narvik kentinde veri merkezi kapasitesini kiralamayı kabul etti. Veri merkezi başlangıçta Stargate projesinin bir parçası olarak OpenAI için planlanmıştı ancak içerdekilere göre OpenAI, Nscale operatörü ile bir anlaşmaya varamadı.
Norveç'te planlardan vazgeçilmesi, OpenAI'nin kısa süre içinde yaşadığı ikinci aksilik oldu. Geçen hafta, yine Nscale tarafından geliştirilen Büyük Britanya'daki benzer Stargate UK projesi beklemeye alındı.
Netflix'te seslerin dublajı konusundaki anlaşmazlık sürüyor
Netflix'te yapay zeka tarafından üretilen dublaj sesleri konusundaki anlaşmazlıkta, Alman meslek kuruluşları arasındaki çatışma yoğunlaşıyor. Oyuncuların sendikası BFFS, geçen yaz Netflix ile yayın hizmetine yapay zeka seslerini kullanma konusunda kapsamlı haklar veren bir anlaşma imzaladı. Almanca Konuşanlar Derneği bu maddeyi hukuki mütalaada inceletmiş ve çok ileri gittiği sonucuna varmıştır. Tamamen aynı madde artık seslendirme sanatçıları derneği üyelerinin reddettiği yeni bir anlaşmada da yer alıyor.
BFFS kendisini savunuyor ve raporun yanlış olduğunu söylüyor. Konumunuz: Yapay zeka seslerinin gelişimi tersine çevrilemez; Anlaşma en azından daha sonraki müzakereler için bir temel oluşturuyor. Seslendirme sanatçıları derneğinin talep ettiği boykota benzer bir boykot ters etki yaratacaktır. Bu nedenle Alman seslendirme sanatçıları arasında yapay zeka sesleriyle nasıl başa çıkılacağı konusunda derin bir anlaşmazlık var.
Kullanıcılar yakında AI isteklerini Chrome'a kaydedebilecek
Google, Chrome'da sık kullanılan AI sorgularını doğrudan tarayıcıya kaydetmenize olanak tanıyan yeni bir özellik olan “Beceriler”i sunuyor. Kullanıcılar komutları yeniden yazmak yerine tek tıklamayla bunlara erişebilir. Bir örnek: birden fazla sekmede alışveriş yaparken ürün verilerinin yapay zeka destekli karşılaştırması.
Ön koşul, Google'ın henüz dünya çapında uygulamaya koymadığı Gemini AI modelinin Chrome'a entegrasyonudur. Bu nedenle işlev başlangıçta yalnızca ABD'de İngilizce Chrome'da başlayacak. Bunu diğer diller ve ülkeler takip edecek.
Grup olarak yapay zeka modelleri birçok kişiden daha az yaratıcıdır
Farklı yapay zeka metin oluşturucularından gelen yaratıcı yanıtlar, aynı görevlerin verildiği insanlardan gelen yanıtlara göre birbirine daha çok benziyor. Duke Üniversitesi'nde profesör olan Emily Wenger'in bir meslektaşıyla birlikte keşfettiği şey bu. Üç standartlaştırılmış yaratıcılık testinde 22 dil modeli 100 kişiye karşı yarıştı. Bireysel modeller bireysel insanlardan daha iyi performans gösterse de, bir bütün olarak insan katılımcılar daha çeşitli sonuçlar üretti.
Wenger, giderek artan yoksullaşma konusunda uyarıyor: Gemini, ChatGPT ve Claude gibi yaratıcı görevler için çeşitli yapay zeka modellerini sorgulayan herkes, karşılaştırılabilir bir grup insanın yanıtlarına kıyasla birbirine çok daha benzer yanıtlar alacaktır. Tüm modeller temelde aynı İnternet verileri üzerinde eğitildiğinden, çıktıları birbirine yakınlaşır. Giderek daha fazla insan yaratıcı çalışmalar için yapay zekaya güveniyorsa metinler, stil ve dilbilgisi aynı olma riskiyle karşı karşıya kalır.

(igr)
Bir yanıt yazın