Kompakt AI güncellemesi: Firefox, Pentagon ve Antropik, Meta+AMD, şifreler

Reklamdan sonra devamını okuyun

Mozilla, Firefox'ta kullanıcıların tüm AI işlevlerini aynı anda kapatmasına olanak tanıyan bir anahtar geliştirdi. Firefox Başkanı Ajit Varma, diğer tarayıcılardan farkını vurguluyor: Kullanıcılar çeviri gibi hangi yapay zeka işlevlerine izin vereceklerini seçebiliyor ancak özetleri seçemiyor. Mozilla kendi dil modellerini geliştirmediğinden tarayıcı hiçbirini tercih etmiyor ve Varma bunu rakiplerine göre açık bir avantaj olarak görüyor.

Varma ayrıca açık ağı tehlikeye atacak bir gelişme konusunda da uyarıyor. Sohbet robotları tarayıcıların yerini alabilir ancak açık web, yapay zeka modellerinin eğitildiği temeldir. ABD'li medya şirketi Fox'un içeriğinin kullanımını başarısız bir şekilde durdurmaya çalıştığı Google ile bir paralellik kuruyor. Varma, bu sefer sonucun farklı olabileceğini söyledi. Ayrıca pahalı yapay zeka modellerini yalnızca Google ve Meta gibi birkaç büyük şirketin finanse edebileceği konusunda uyarıyor ve yapay zeka cevabının gelecekte en iyi veya en karlı çözüm olup olmayacağını soruyor.

KI PRO adı verilen kişisel tanıtım uzmanı hizmeti

ABD'li teknoloji şirketi Palantir'in “Gotham” yazılımı, güvenlik yetkililerinin farklı kaynaklardan gelen büyük miktarda veriyi birleştirip otomatik olarak değerlendirmesine olanak tanıyor. Palantir halihazırda Birliğin yönettiği birçok federal eyalette kullanılıyor. Ancak eleştirmenler uzun süredir kapsamlı gözetim seçenekleri, şeffaflık eksikliği ve temel haklara olası müdahale konusunda uyarıda bulunuyor.

SPD artık Palantir'in kullanılmasına açıkça karşı çıkıyor. Federal Adalet Bakanı Stefanie Hubig günlük Welt gazetesine şunları söyledi: “Palantir'in federal yetkililer için geleceğini düşünmüyorum.” Parti bunu yaparken, en azından sivil toplumun aylardır süren baskısına tepki gösteriyor. Ancak SPD'nin federal düzeydeki reddi öncelikle semboliktir. Palantir'in federal eyaletlerde kullanılmaya devam etmesi muhtemeldir.

Reklamdan sonra devamını okuyun

ABD ve AB, vizesiz seyahat için yeni koşullar üzerinde pazarlık yapıyor. Aslında ABD, AB üye devletlerinin ulusal biyometrik veritabanlarına erişim talep ediyor. Her iki taraf da yıl sonuna kadar anlaşmaya varamazsa, Avrupa vize muafiyet programından çıkarılma tehlikesiyle karşı karşıya kalabilir. AB Komisyonu'nun hazırladığı taslak ABD güvenlik yetkililerine geniş yetkiler veriyor.

Otomatik karar almaya ilişkin bir madde özellikle hassastır. Belge, algoritmaların bireyler için ciddi sonuçlar doğuracak kararları tek başına almasına izin verilmediğini şart koşuyor. Ancak ABD yasaları bu tür prosedürlere izin veriyorsa, tamamen mekanik bir değerlendirmeye izin verilebilir. Bu, yüksek riskli alanlarda nihai kararların insan tarafından alınmasını gerektiren Avrupa Yapay Zeka yasasıyla çelişiyor. Anlaşmanın Genel Veri Koruma Yönetmeliği ve AI Yasası ile nasıl uyumlu olacağı hala belirsiz.

ABD Savunma Bakanlığı, Anthropic'in yapay zeka modeli Claude'a tam erişim talep ediyor ve şirkete Cuma gününe kadar süre verdi. Herhangi bir anlaşmaya varılamaması durumunda Pentagon iki önlem almakla tehdit ediyor: Antropik'i tedarik zinciri için bir risk olarak sınıflandırmak, bu da orduyla iş yapmayı imkansız hale getirecek ya da şirketi, savaş açısından kritik malları güvence altına almayı amaçlayan bir yasa olan Savunma Üretim Yasası aracılığıyla işbirliği yapmaya zorlamak. Yasa en son korona salgını sırasında şirketleri tıbbi malzeme üretmeye zorlamak için kullanıldı.

Anthropic orduyla çalışmaya istekli, ancak bu iki koşula bağlı: Claude, ABD nüfusunun kitlesel gözetimi için kullanılamaz ve ölümcül silahlar insan kontrolü olmadan ateşlenemez. Pentagon her türlü kısıtlamayı reddediyor. Antropik konusunda bu kadar ısrar edilmesinin basit bir nedeni var: Pentagon'a göre Claude mevcut en güçlü model.

Anthropic, üç Çinli şirketi Claude ile 16 milyondan fazla etkileşim oluşturmak için 24.000'den fazla sahte hesap kullanmakla ve bunları kendi yapay zeka modellerini eğitmek için kullanmakla suçluyor. DeepSeek, Moonshot AI ve MiniMax şirketleri, daha zayıf bir modelin daha güçlü bir modelin çıktısı kullanılarak eğitildiği bir süreç olan damıtma işlemine güveniyor. Antropik bunu kullanım şartlarının ihlali olarak görüyor.

Anthropic, bir blog yazısında yaklaşımın ABD için önemli bir güvenlik riski oluşturduğu konusunda uyarıyor. Amerikan modellerini bu şekilde kopyalayan yabancı laboratuvarlar, edinilen yetenekleri askeri, istihbarat ve gözetleme sistemlerine aktarabilir. OpenAI ayrıca DeepSeek'i R1 modelini ChatGPT'den damıtarak eğitmekle suçluyor.

Yapay zeka güncellemesi

Yapay zeka aslında ne kadar akıllı? Üretken yapay zekanın işimiz, boş zamanlarımız ve toplumumuz açısından ne gibi sonuçları var? Haberler'nin “Yapay Zeka Güncellemesi”nde The Decoder ile birlikte size hafta içi her gün en önemli yapay zeka gelişmelerine ilişkin güncellemeleri sunuyoruz. Cuma günleri uzmanlarla yapay zeka devriminin farklı yönlerini inceliyoruz.

Bir AI yanıtı ne kadar tamamlanmış görünürse, kullanıcılar bunun doğru olup olmadığını o kadar az kontrol eder. Bu, Anthropic'in sohbet robotu Claude ile yapılan neredeyse 10.000 anonimleştirilmiş görüşmenin analizinin sonucudur. Claude, diyalogların yüzde 12,3'ünde küçük uygulamalar veya belgeler gibi bitmiş ürünler oluşturdu. Bu durumlarda, eleştirel inceleme ölçülebilir şekilde azaldı: Kullanıcıların eksik bağlamı fark etmesi daha az olasıydı, gerçekleri daha az kontrol etti ve yapay zekanın mantığını neredeyse hiç sorgulamadı.

Öte yandan, sonuçlarını kademeli olarak geliştirenler yapay zekanın mantığını beş kat daha sık sorguladılar ve eksik bağlamı dört kat daha sık fark ettiler. Ancak, hassaslaştırma teknik bir sorunu da beraberinde getirir: Sohbet penceresinde çok fazla içerik birikirse, yapay zeka yanıtları daha kötü hale gelir. Bu nedenle Antropik, ilk cevabı bir başlangıç ​​noktası olarak ele almayı, özellikle gösterişli sonuçları sorgulamayı ve zamanında yeni bir sohbet başlatmayı öneriyor.

Meta ve AMD, Reuters'in yaklaşık 60 milyar dolar olarak tahmin ettiği bir çerçeve anlaşması imzaladı. Meta, yılın ikinci yarısından itibaren AMD'den beş yıl boyunca toplam altı gigawatt kapasiteli yapay zeka hızlandırıcıları satın almayı planlıyor. Meta, 2024 gibi erken bir tarihte AMD'nin en büyük yapay zeka hızlandırıcı müşterisiydi.

Anlaşma alışılmadık bir madde içeriyor: Eğer Meta yeterli miktarda çip satın alırsa, şirket hisse başına bir sentlik sembolik fiyat üzerinden 160 milyona kadar AMD hissesi için opsiyonlar alacak ki bu şu anda yaklaşık yüzde onluk bir hisseye karşılık geliyor. Dolayısıyla Meta'nın AMD'nin borsadaki başarısıyla doğrudan ilgisi var. Anlaşmanın açıklanmasının ardından AMD'nin hisseleri neredeyse yüzde 15 oranında değer kazandı.


Google'ın yapay zeka bölümü DeepMind'dan araştırmacılar, yapay zeka sistemlerinin, kendileri yapabilseler bile görevleri bilinçli olarak insanlara devretmeleri gerektiğini öne sürüyor. Bunun nedeni otomasyonun paradoksunda yatıyor: Yapay zeka tüm rutin görevleri üstlenirse, insan denetçiler kritik anlara müdahale etme deneyimini kaybeder. Hedeflenen uygulama görevleri bu yeterliliği sürdürmeyi amaçlamaktadır. Sunulan çerçeve aynı zamanda açık bir koşulu da ortaya koyuyor: Bir görev yalnızca sonucu doğrulanabiliyorsa devredilebilir.

Yapay zeka start-up'ı Inception Labs, alışılagelmiş Transformer mimarisi yerine bir yayılma sürecine dayanan bir dil modeli olan Mercury 2'yi tanıttı. Model, metni kelime kelime üretmek yerine aynı anda birkaç metin bloğunu hassaslaştırır. Sonuç hızdır: Inception'a göre Mercury 2, Nvidia'nın mevcut Blackwell çipleri üzerinde 1,7 saniyelik tepki süresiyle saniyede 1000'den fazla jeton işliyor. Karşılaştırma yapmak gerekirse, Google'ın Gemini 3 Flash'ı 14 saniye sürerken, Anthropic'in Claude Haiku 4.5'i 23 saniyeden fazla sürüyor. Mercury 2 de her ikisinden de daha ucuzdur.

Inception Labs, Kasım ayında aralarında Microsoft ve Nvidia'nın da bulunduğu yatırımcılardan 50 milyon dolar aldı. Uzun vadede difüzyon yaklaşımının baskın transformatör mimarisine üstün gelip gelmeyeceği henüz bilinmiyor.

Claude, GPT veya Gemini gibi sohbet robotları tarafından oluşturulan şifreler ilk bakışta güvenli görünüyor: özel karakterler ve sayılar içeriyorlar. Ancak Irregular şirketindeki güvenlik araştırmacıları bu karakterlerin genellikle tahmin edilebilir yerlerde olduğunu buldu. Kriptografik olarak güvenli bir parolanın entropisi yaklaşık 98 bittir. Yapay zeka tarafından oluşturulan şifreler, testlerde yalnızca 27 bit civarında yönetildi. Bunun nedeni, büyük dil modellerinin doğasında yatmaktadır: Bunlar, şifre oluştururken sorun haline gelen makul, öngörülebilir çıktılar üretmek üzere eğitilmişlerdir.

Güvenli tarafta olmak istiyorsanız, kriptografik olarak güvenli rastgele sayı üreteçleri kullanan bir şifre yöneticisi kullanmalısınız. Ancak ETH Zürih'teki araştırmacılar yakın zamanda bazı popüler şifre yöneticilerinin de kendi güvenlik sorunlarına sahip olduğunu gösterdi.

Meksika, insan sesini sanatsal bir araç olarak yasal olarak korumak istiyor. Başkan Claudia Sheinbaum'un hükümeti, oyuncuların seslerinin yapay zeka tarafından izin ve ödeme olmaksızın kopyalanmasını yasaklayan bir yasama girişimi sundu. Meksika, Latin Amerika'daki en büyük dublaj endüstrisine sahip ülke olup, yarım küredeki tüm dublajların yaklaşık üçte ikisini üretmektedir.

Meksika Kongresi'ndeki çoğunluk dikkate alındığında yasanın geçmesi muhtemel görünüyor. Bu, Meksika'yı dünyada kültürde ses klonlamayı düzenleyen ilk ülke yapacak.

KI PRO adı verilen kişisel tanıtım uzmanı hizmeti

KI PRO adı verilen kişisel tanıtım uzmanı hizmeti



(igr)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir