Artık “AI modellerinizi yağmalamamak” için Openai güvenliğini güçlendiriyor

Openai, fikri mülkiyetin herhangi bir hırsızlığını önlemek için yeni önlemler alacaktı: eski istihbarat veya askeri çalışanların işe alınması, hassas bilgilerin ve projelerin bölünmesi, belirli çalışanların kontrolünün güçlendirilmesi …

Casusluk girişimlerine ve fikri mülkiyet uçuşlarına karşı, ChatGPT'nin arkasındaki başlangıç ​​olan Openai güvenliğini güçlendirecekti. Amerikan şirketi geçen yıl zaten yeni önlemler benimsemiş olsaydı, güvenlik seviyesi, özellikle yılın başında Çin Deepseek aracının yayınlanmasından sonra bir çentik oluşturacaktı. Finansal Zamanlar 8 Temmuz Salı.

Bu açık kaynak Chatgpt rakibi, daha düşük bir maliyetle, sektörün Amerikan devlerinden ve özellikle Openai'den endişe etmişti. 29 Ocak'ta, ikincisi Deepseek'i bir rakip sistemi geliştirmek için “damıtma” olarak bilinen bir teknik kullanarak AI modellerini uygunsuz bir şekilde kopyalamakla suçladı.

Bu bölüm ” Openai'yi çok daha titiz olmaya teşvik ettim “Güvenlik ekibine yakın bir kişi dedi. Ekonomik medyanın kaynağına göre, şirket güvenlik ve siber güvenliğe adanmış ekibini büyük ölçüde güçlendirecekti. Paralel olarak güvenlik önlemlerini sertleştirecekti.

Dahili olarak, “Durum çok gergin hale geldi”

Somut olarak, hassas bilgiler daha bölümlenmiş ve çalışanlar daha kontrol edilir. Algoritmalar ve yeni ürünlerle ilgili bilgiler yalnızca belirli çalışanlar için erişilebilir olacaktır: Geliştirme derslerinde yeni algoritmalar Önemli ölçüde azaldı.

“” Durum çok gergin hale geldi: ya her şeyimiz vardı ya da hiçbir şeyimiz yoktu “Medyanın kaynaklarından biri dedi.” Başkalarının ne yaptıkları hakkında bilgilendirilmeden bildikleri hakkında daha fazla insan bilgilendirilir Devam ediyor. Amerikalı meslektaşlarımıza göre, Openai belirli ekiplere izole ve bölünmüş ortamlar uygulayacak, bilgisayar sistemleri çevrimdışı korundu ve diğer ağlardan ayrıldı. Belirli ofislere erişim biyometrik kontrol altında olacak ve çalışanlar belirli odalara girmek için parmak izlerini taramak zorunda kaldı.

İki işe alınan askeri uzman

Veri merkezlerinin güvenliği, özellikle çalışanların veya iş teklifleri için adayların kontrolü yoluyla da güçlendirilmiştir. Openai ayrıca geçen Ekim ayında Dane Stuckey gibi askeri veya istihbarat uzmanlarını işe aldı. Yeni Bilgi Güvenliği Müdürü eski bir Palantir gözetim şirketidir. ABD emekli ordusu generali Paul Nakasone da Openai Yönetim Kurulu'na atandı. Misyonu: Siber güvenlik tehditlerine karşı savunmalarını denetlemek.

Tüm bu önlemler bir sürpriz olmaktan uzak. Neredeyse iki yıldır, Silikon Vadisi düzenli olarak yabancı ülkelere gözetleme girişimleri konusunda uyarıldı ve düzenli olarak siber güvenliğini ve gizli veya stratejik bilgilerinin korunmasını güçlendirmeye teşvik edildi. 2023'ün sonunda, “Beş Gözler” in patronları, örneğin, onları önlemek için Silikon Vadisi'nden yaklaşık on beş liderle “özel” tanıştıklarını açıkladı. benzeri görülmemiş bir küresel casus kampanyanın Pekin'den.

Ayrıca okumak için: Bir istihbarat ajanının düşüşü Çin endüstriyel casusluğunun derecesini nasıl ortaya çıkarıyor

Gerçek şu ki, tüm bu yeni önlemler bir rakibin Openai'den engellemesini engelleyemezdi ” damıtmak AI modelleri, Amerikan firması tarafından Deepseek'e karşı taşınan bir suçlama. Bu teknik gerçekten bir modelin uygulama programlama arayüzüne (API) erişmek ve bu sistem tarafından oluşturulan yanıtları başka bir AI modeline neden olmak için yeniden kullanmaktır. Bununla birlikte, burada, bu yanıtlarla ilgili koruma güçlendirilmemiştir. Yalnızca koruma: Openai AI modellerinin genel kullanım koşulları, “sistemleri” ile oluşturulan sonuçları (“çıktı verileri”) her zaman yasaklamaktadır. Rekabet Openai modellerini geliştirmek için ».

Ayrıca okuyun: Vision Pro: Apple, eski bir işçiyi ondan çalınmasıyla suçluyor.

🔴 Herhangi bir 01net haberini kaçırmamak için bizi Google News ve WhatsApp'ta takip edin.


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir