XAI: GROK tarafından sistem istemi manipüle edildi

XAI AI modeli, Güney Afrika'da “beyaz soykırım” iddiasıyla birkaç saat boyunca Çarşamba günü yanlış bilgi yaydı. Elon Musk şirketinin şu anda açıkladığı gibi, sistem tarafından “yetkisiz bir değişiklik” tetiklendi. Xai, GitHub'da sistem istemini yayınlayarak daha iyi koruyucu önlemler ve daha fazla şeffaflık yoluyla diğer şeylerin yanı sıra gelişmeyi övdü.

Kullanıcılar, chatbot için farklı sorular üzerinde bozukluğu buldular. Yanlış ifadeler, soruya herhangi bir bağlantı olmadan ortaya çıktı. Birkaç saat sonra sorun giderildi ve GroK sorulara tekrar cevap verdi.

Xai yaptığı açıklamada, “iç yönergeler ve temel değerler” ihlalinden bahsediyor. Şirket, yetkisiz bir kişinin sisteme geniş erişime sahip olmasının ne kadar mümkün olduğunu söylemedi.

Bununla birlikte, 7/24 izleme ekibiyle, böyle bir şeyin kendini tekrarlamadığından emin olmak istiyor. Bu, değişiklikleri tanımak için mevcut otomatik mekanizmaları destekler. Buna ek olarak, çalışanların incelemeden istemleri değiştiremeyecek şekilde ek sınavlar olmalıdır.

Xai tarafından GitHub'da farklı varyantlarda yayınlanan sistem istemi, kullanıcıların sorularını ele alması gerektiği için AI'ya teknik talimatlar içerir. İçerik üzerindeki bir etki orada belirlenemez. Yayınla, Grok'a olan güveni artırmak istiyorsunuz, yazıyor Xai.

Şubat 2024 gibi erken bir tarihte, eski bir Openai çalışanı sistem isteminde değişiklikler yaptığında benzer bir olay oldu. Bunlar, Grook'un Elon Musk ve Donald Trump'ın yanlış bilgilerin yayılmasını suçladığı kaynakları görmezden geldi.


(MKI)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir