Simülasyon aracı, yapay zekanın işlerin yerini nerede alabileceğini gösteriyor
Reklamdan sonra devamını okuyun
Massachusetts Teknoloji Enstitüsü'nün (MIT) yaptığı bir araştırma, yapay zekanın ABD'deki işgücünün yüzde 11,7'sinin yerini alabileceği sonucuna varıyor. Araştırmacılar, tüm ABD işgücü piyasasının dijital ikizi olan “Buzdağı Endeksi”ni kullandılar. Araç, yapay zekanın etkisini daha kesin bir şekilde tahmin etmek ve politika yapıcıların yaklaşan işten çıkarma dalgaları öncesinde harekete geçmesini sağlamak için 151 milyon çalışanın çalışmasını simüle ediyor.
Potansiyel olarak etkilenen ücret faturası yaklaşık 1,2 trilyon dolar. Yaygın inanışın aksine, en fazla risk altında olan işler teknolojik işler değil, finans, sağlık ve ticari hizmetlerdeki rutin işlerdir. Bu alanlar nüfusun çok daha büyük bir bölümünü etkilemektedir ve ABD'nin 50 eyaletinin tamamında yaygındır. Endeksin adı, otomasyonun gerçek boyutunun kamuoyunun algısının altında yattığını öne sürüyor.

Allianz yan kuruluşu yapay zeka nedeniyle işten çıkarma planlıyor
Sigorta grubu Allianz'ın bir yan kuruluşu olan Allianz Partners'ın çağrı merkezlerinde 1.500 ila 1.800 kişiyi işten çıkarmayı planladığı bildiriliyor. Şirket, Allianz Partners markası altında seyahat sigortası ve yol yardımı gibi hizmetleri bir araya getiriyor. Çalışanların yerini yapay zekalı bir sistem alacak.
Özel olarak geliştirilen yapay zeka asistanının, adres değişiklikleri gibi basit telefon sorgularını bağımsız olarak işlemesi amaçlanıyor. İçeridekilere göre sistem, 20'den fazla dilde yüzlerce çağrıyı aynı anda yönetebiliyor. Yalnızca daha karmaşık durumlarda talepler insan çalışanlara iletilmelidir.
OpenAI, oğullarının intiharından sonra ebeveynlerin açtığı davaya yanıt veriyor
Reklamdan sonra devamını okuyun
OpenAI, intihar eden 16 yaşındaki bir çocuğun ebeveynlerinin açtığı davayla karşı karşıya. Genç aylardır ChatGPT ile yoğun bir şekilde iletişim kurmuştu. Chatbot'un kendisine bir veda mektubu yazmasına yardım etmeyi teklif ettiği söyleniyor. Ebeveynler, şirketi güvenlik önlemlerinin eksikliği ve oğullarının ölümünde suç ortaklığı yapmakla suçluyor.
OpenAI sorumluluğu reddeder ve kullanım şartlarına atıfta bulunur. Bunlar, chatbotun açıklamalarına güvenilmemesi ve gencin güvenlik önlemlerini atlattığı konusunda uyarıda bulunuyor. Vaka, kullanıcılara rıza göstermek üzere eğitilmiş sohbet robotlarının tasarımına ışık tutuyor. Bu özellik onları bir yankı odası haline getirebilir, tehlikeli düşünceleri zorlamak yerine güçlendirebilir.
Ilya Sutskever ölçeklendirme çağını ilan ediyor
Yapay zekanın yalnızca daha fazla veri ve bilgi işlem gücüyle geliştirilebileceği dönem sona erdi. AI start-up Safe Superintelligence'ın kurucu ortağı ve OpenAI'nin eski baş bilim adamı Ilya Sutskever bunu söylüyor. 2020-2025 yıllarını “ölçeklendirme çağı” olarak adlandırıyor ve eğitim verileri sınırlı olduğundan bu yaklaşımın da sınırları olduğunu söylüyor. Sektörün araştırmaya geri dönmesi gerekiyor.
Sutskever, günümüz modellerinin testlerde başarılı olmasına rağmen çoğu zaman basit görevlerde başarısız olmasını eleştiriyor. Bir sonraki seviyeye ulaşmak için yapay zeka sistemlerinin insanlar kadar verimli bir şekilde öğrenmesi gerekecek. 3 milyar dolar sermaye toplayan yeni şirketiyle yeni eğitim yöntemleri geliştirmek istiyor. Ancak ayrıntılar konusunda sessizliğini koruyor.
OpenAI, servis sağlayıcı Mixpanel'den veri sızıntısı olduğunu bildirdi
OpenAI, işe aldığı web analitiği servis sağlayıcısı Mixpanel'de bir veri sızıntısı olduğunu bildirdi. Olay, OpenAI'nin ChatGPT gibi temel ürünlerini değil, yalnızca uygulama programlama arayüzü (API) kullanıcılarını etkiliyor. OpenAI'ye göre sohbetler, şifreler veya API anahtarları gibi hiçbir hassas bilgi çalınmadı.
Mixpanel'e yetkisiz erişim, çalışanlara yönelik bir SMS kimlik avı saldırısı yoluyla gerçekleşti. Saldırganlar, API kullanıcılarının adları, e-posta adresleri ve yaklaşık konumları gibi analiz verilerini ele geçirmeyi başardı. OpenAI, Mixpanel ile olan iş birliğini sonlandırdı ve etkilenen kullanıcılarla doğrudan iletişime geçmek istiyor. Mixpanel güvenlik açığını kapattığını söylüyor.
Yapay zeka aslında ne kadar akıllı? Üretken yapay zekanın işimiz, boş zamanlarımız ve toplumumuz açısından ne gibi sonuçları var? Haberler'nin “Yapay Zeka Güncellemesi”nde The Decoder ile birlikte size hafta içi her gün en önemli yapay zeka gelişmelerine ilişkin güncellemeleri sunuyoruz. Cuma günleri uzmanlarla yapay zeka devriminin farklı yönlerini inceliyoruz.
Yapay zeka ile görüntü oluşturmak çok fazla enerji gerektirir
Yapay zeka kullanarak bir görüntü oluşturmak, bir sohbet robotuna gönderilen metin isteğinden on kata kadar daha fazla enerji tüketir. Bu, Stanford Üniversitesi ve Axa Group'taki araştırmacılar tarafından yapılan bir çalışmanın sonucudur. Bu nedenle 1024 x 1024 piksel çözünürlüğe sahip tek bir görüntünün oluşturulması 3,58 watt saat gerektirir. Öte yandan ortalama bir ChatGPT isteği yalnızca yaklaşık 0,34 watt saat kullanır.
Araştırma, DALL-E ve Midjourney gibi görüntü oluşturucuların teknik temelini oluşturan yayılma modellerine odaklandı. Bilim adamları, gerekli hesaplama işlemlerine dayanarak bu modellerin güç tüketimini tahmin etmek için bir yöntem geliştirdiler. Sonuçlarının enerji açısından daha verimli yapay zeka sistemlerinin geliştirilmesini teşvik edeceğini umuyorlar.
Epik patron Tim Sweeney, AI etiketinin anlamsız olduğunu düşünüyor
Oyun geliştiricisi Epic Games'in başkanı Tim Sweeney, video oyunlarında yapay zeka kullanımına ilişkin etiketlerin gereksiz olduğuna inanıyor. Yapay zekanın yakında oyun geliştirmede günlük bir araç haline geleceğini ve herhangi bir etiketi anlamsız hale getireceğini savunuyor. Epic, rakip platform Steam'in aksine çevrimiçi mağazasında böyle bir etiketleme zorunluluğundan feragat ediyor.
Sweeney'in duruşu, çoğu zaman yapay zeka tarafından oluşturulan içeriği ruhsuz olduğu gerekçesiyle reddeden birçok oyuncunun düşünceleriyle çelişiyor. Geliştirme stüdyoları, üretim lojistiği ve organizasyonu gibi görevler için zaten yapay zekayı kullanıyor. Bunu yatırımcılara açıkça ama dikkatli bir şekilde müşterilerine iletiyorlar. Steam'deki mevcut AI etiketlerinin belirsiz ifadeleri Sweeney'in eleştirisini destekliyor.
Şiirler AI güvenlik mekanizmalarını yenebilir
Kötü amaçlı istekler, şiir şeklinde ifade edilirse yapay zeka modellerinin güvenlik filtrelerinden geçirilebilir. İtalyan üniversiteleri tarafından yapılan bir araştırma, bu yöntemin evrensel bir “jailbreak” işlevi gördüğünü gösterdi. Araştırmacılar 1.200 standart test sorgusunu sistematik olarak ayete dönüştürdüğünde, filtreleri atlamadaki başarı oranı, düzyazıdaki orijinallerden üç kat daha yüksekti.
Bilim insanları, metaforlar ve ritim gibi şiirsel unsurların güvenlik sistemlerinin kalıp tanımasını bozduğundan şüpheleniyor. Ancak modellerin duyarlılığı büyük ölçüde değişmektedir. Google'ın Gemini 2.5 Pro'su tüm testlerde başarısız olurken, OpenAI ve Anthropic'in modelleri daha dayanıklı olduğunu kanıtladı. Çalışma, yaygın güvenlik testlerinin yapay zeka sistemlerinin sağlamlığını olduğundan fazla tahmin ettiğini öne sürüyor.

(igr)
Bir yanıt yazın