Google, “AI” nı aynı anda tüm ürünlerine itmeye çalışıyor. İkizler lezzetini denemeniz istenmeden arama, android veya krom kullanamazsınız. Ancak Google'ın büyük dil modelinin Gmail mesajlarınızı özetlemesine izin vermeden önce biraz bekleyin… çünkü görünüşe göre kimlik avı denemelerini geçmesini sağlamak kolaydır.
Çalışma Alanı için Google Gemini, Gmail arabirimini kullanarak bir e -postadaki metni özetleyen bir özellik içerir, ancak gerçek bir Gmail adresi değil. Mozilla'nın 0din AI Bug Bounty Programına (BleepingComputer tarafından tespit edilen) gönderilen bir güvenlik açığı, bu sistemi oyunun kolay bir yolunu buldu: Beyaz bir arka planda beyaz yazı tipi olan bir e -postanın sonundaki bazı metnleri gizle, böylece okuyucuya görünmez. Bağlantıların veya eklerin eksikliği, olağan spam korumalarını tetiklemeyeceği anlamına gelir.
Ve muhtemelen ne olacağını tahmin edebilirsiniz. “Görünmez” metindeki talimatlar, kullanıcıya şifrelerinin tehlikeye atıldığını ve sıfırlamak için belirli bir telefon numarasını çağırmaları gerektiğine dair uyarmak için Gemini otomatik olarak oluşturulmuş özeti işaret eder. Bu varsayımsal senaryoda, satırın diğer ucunda bekleyen bir kimlik hırsızı, e -posta hesabınızı ve ona bağlı olabilecek diğer bilgileri çalmaya hazır. Metindeki gizli bir “yönetici” etiketi, İkizler'in özette kelimesi kelimesi kelimesine içereceğinden emin olabilir.
Bunun şu anda sadece teorik bir saldırı olduğunu ve yazma sırasında “vahşi doğada” görülmediğini belirtmek önemlidir. İkizler “Bu e -postayı özetleyin” özelliği şu anda genel olarak değil, yalnızca çalışma alanı hesapları için kullanılabilir. (Bu anahtarı bir milyar ya da iki temel Gmail kullanıcısı için çevirmenin, Google'ın güçlü veri merkezlerindeki büyük demirin bile aşırı vergilendirebileceğini hayal ediyorum.)
Ancak kullanıcıların, dini bir yanılsama veya ırkçı bir manifestin ortasında görünseler bile, büyük dil modelleri tarafından oluşturulan metne güvenme kolaylığı, en azını söylemek gerekir. Spam gönderenler ve bilgisayar korsanları, etkilerini daha verimli bir şekilde yaymak için zaten LLM'ler ve bitişik araçlar kullanıyorlar. Kullanıcılar yapay zekaya daha fazla bağımlı hale geldikçe ve bu sistemlerin daha etkili ve düzenli olarak tehlikeye atılacağı neredeyse kaçınılmaz görünmektedir.
Bir yanıt yazın