Antropik, OpenAI, xAI ve Meta, yapay zeka süper zekasını kontrol etmeye yönelik güvenlik önlemlerinde başarısız oluyor

Enstitüye göre, bağımsız bir uzman grubu tarafından yürütülen güvenlik değerlendirmesi, şirketlerin gelişmek için acele ederken, süper zekaHiçbirinin bu kadar gelişmiş sistemleri kontrol etmek için sağlam bir stratejisi yoktu.

Çalışma, çeşitli intihar ve kendine zarar verme vakalarının yapay zeka chatbot'larıyla ilişkilendirilmesinin ardından, mantık yürütme ve mantıksal düşünme yeteneğine sahip, insandan daha akıllı sistemlerin sosyal etkisine ilişkin kamuoyunda endişelerin arttığı bir dönemde gerçekleşti.

MIT profesörü ve Hayatın Geleceği başkanı Max Tegmark, “Bilgisayar korsanlığı ve yapay zekanın insanları psikoza ve kendine zarar vermeye sürüklediği yönündeki son zamanlardaki kargaşaya rağmen, Amerikan yapay zeka şirketleri gıda hizmeti şirketlerine göre daha az düzenlemeye devam ediyor ve bağlayıcı güvenlik standartlarına karşı baskı yapmaya devam ediyor” diyor.

Büyük teknoloji şirketlerinin makine öğrenimi çabalarını iyileştirmek ve genişletmek için yüz milyarlarca dolar akıtmasıyla yapay zeka yarışı da herhangi bir yavaşlama belirtisi göstermiyor.

Yaşamın Geleceği Enstitüsü, akıllı makinelerin insanlık için oluşturduğu risklerle ilgili endişelerini dile getiren, kar amacı gütmeyen bir kuruluştur. 2014 yılında kuruldu ve ilk desteğini Tesla TSLA'nın CEO'su Elon Musk'tan aldı.

Ekim ayında aralarında bilim insanları Geoffrey Hinton ve Yoshua Bengio'nun da bulunduğu bir grup, halk talep edene ve bilim güvenli bir yol açana kadar süper akıllı yapay zekanın geliştirilmesinin yasaklanması çağrısında bulundu.

Reuters'in verdiği bilgiye göre


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir