Anthropic, üç Çinli yapay zekayı Claude'u yağmalamakla suçluyor

OpenAI ve Anthropic, DeepSeek ve diğer Çinli yapay zeka uzmanlarını, kendi modellerinin eğitimini hızlandırmak için Claude ve GPT modellerinden yetenekler çıkarmakla suçluyor. İki Amerikan devi, korunan içeriğin izinsiz kullanımı nedeniyle yasal işlemlerin hedefi olurken tuzdan da yoksun değil.

Antropik boğayı boynuzlarından tutun. Öfkeli bir blog yazısında, yaratıcısı Claude bir tanımladığını açıklıyor “ endüstriyel ölçekte kampanya » Üç Çin laboratuvarının liderliğinde, Derin AramaMoonshot ve MiniMax. Onların hatası: kendi modellerini daha düşük maliyetle geliştirmek için Anthropic'in yapay zeka modelinin yeteneklerini yasa dışı bir şekilde çıkarmış olmaları.

Damıtıcılar damıtıldığında

Damıtma adı verilen işlem başlı başına bir suç değildir. Daha güçlü bir modelin yanıtlarına dayanarak daha küçük veya daha az verimli bir modeli eğitmek bile yaygın bir uygulamadır. Büyük yapay zeka şirketleri bunu müşterileri için daha hafif, daha ucuz versiyonlar üretmek için kullanıyor. Yöntemin kendi içinde yasa dışı hiçbir yanı yoktur.

Anthropic'e göre burada sorun oluşturan şey gizli kullanımdır: Bu laboratuvarlar kendi modellerini damıtmak yerine Claude'u gönülsüz bir “profesör” olarak kullanırlardı. Bu, belirli yeteneklerin edinilmesini sağlayacaktır. çok az zaman ve maliyetle » bunları bağımsız olarak geliştirmek gerekir. Amerikalı start-up'a göre bu üç şirket 24.000'den fazla sahte hesap oluşturdu ve Claude ile 16 milyondan fazla alışveriş gerçekleştirdi.

DeepSeek, Claude ile 150.000 etkileşimden memnun olurdu; buna karşılık Moonshot için 3,4 milyon ve MiniMax için 13 milyon etkileşim vardı. Antropik bu savaş alanında yalnız değil: OpenAI, DeepSeek'i bu kez GPT ile aynı taktiği kullanmakla suçlayarak doğrudan Beyaz Saray'a şikayette bulundu.

Böylece Çin'deki üç laboratuvar, kodlama aracılarının programlanmasından politik açıdan hassas taleplere alternatif olan gelişmiş muhakeme yeteneklerini elde etmiş olacaktı. İsteklerin hacmi ve tekrarı, normal kullanımdan ziyade sistematik bir çıkarma mantığına ihanet ederdi.

Anthropic'e göre Çinli rakiplerin bu uygulaması ABD için bir ulusal güvenlik riski teşkil ediyor. Amerikan modelleri, belirli kullanımları (hassas biyoloji, siber saldırılar vb.) sınırlandırmaya yönelik önlemler içerir. Bir model yasa dışı bir şekilde damıtılırsa ham özellikler devam ettiği sürece bu korumalar yeniden üretilemeyebilir. Askeri veya gözetleme sistemleri bundan faydalanabilir.

Suçlama yeni değil: Ocak 2025'te OpenAI, R1 modeli tüm yapay zeka endüstrisini sarsan DeepSeek'i damıtmayla suçlamıştı. Ve şimdi olduğu gibi o zaman da bu durum bir miktar alay konusu olmuştu.

Buradaki ironi şu ki, aynı şirketler mahkemede modellerini telif hakkıyla korunan içerik okyanuslarıyla eğitme haklarını, genellikle izin almadan veya yazarlara tazminat ödemeden savunmaya devam ediyorlar. Dün Mistral'da bunu bir kez daha gördük. Bir yandan damıtma yeniliğe yönelik kabul edilemez bir saldırı olacaktır; diğer yandan metinlerin, görsellerin ve verilerin büyük bir tutkusu adil kullanım kapsamına girecek.

Her iki durumda da Antropik boş boş oturmak istemiyor. Yeni girişim, yasadışı damıtma kampanyalarını engellemek için savunma mekanizmalarına yatırım yapıyor: tespit ve tanımlama sistemleri, binlerce hesap arasındaki koordineli faaliyetlerin takibi, teknik göstergelerin diğer yapay zeka şirketleriyle paylaşılması, doğrulama prosedürlerinin sıkılaştırılması vb. Ancak şirket, hiçbir aktörün sorunu tek başına çözemeyeceğinin farkında: bu ölçekte yanıtın üreticiler, ev sahipleri ve kamu karar vericileri arasında koordine edilmesi gerekecek.

👉🏻 Teknoloji haberlerini gerçek zamanlı takip edin: 01net'i Google'daki kaynaklarınıza ekleyin ve WhatsApp kanalımıza abone olun.

Kaynak :

Antropik


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir