OpenAI, şirket blogu ve CEO Sam Altman'ın X'te açıkladığı gibi yeni bir pozisyonun reklamını yaptı. Maaş: 555.000 dolar ve hisse senedi opsiyonları. OpenAI'nin yapay zeka modellerinin kalite güvencesine adanmış “küçük, yüksek etkili bir ekibe” liderlik edecek bir Hazırlık Müdürü arıyoruz. Şirket, Hazırlık Çerçevesini kullanarak modellerinin yeteneklerini ve risklerini inceler; Hazırlık Başkanı, “tutarlı, titiz ve operasyonel olarak ölçeklenebilir bir güvenlik hattı oluşturan yetenek değerlendirmeleri, tehdit modelleri ve önlemleri oluşturmak ve koordine etmekten” sorumludur.
Reklamdan sonra devamını okuyun
Vaat edilen maaşın yanı sıra, pozisyon yüksek talepleri de beraberinde getiriyor. Temel olarak yeni çalışan, OpenAI modellerinin istenildiği gibi ve zararsız bir şekilde davranmasını sağlama sorumluluğunu üstlenir. Örneğin X konusunda Sam Altman kendi modellerinin ruh sağlığı alanındaki potansiyelini anlatıyor. 2025 yazında 16 yaşındaki bir gencin, birçok oturumdan oluşan yoğun bir alışverişin ardından ChatGPT'yi kullanarak intihar etmesi nedeniyle ABD'de şu anda bir dava sürüyor. Araştırmacılar genellikle dil modellerinin akıl hastalıklarıyla nasıl başa çıktığı konusunda büyük riskler görüyorlar. Siber güvenlik sorunları da tekrar tekrar ortaya çıkar ve Hazırlık Başkanının rolünün bir parçasıdır. Ayrıca biyolojik savaş etkenleri veya benzeri zararlı maddelere ilişkin sorulara ilişkin tedbirler de sorumluluk alanına girmektedir.
Kötü basının ardından güvenlik aniden önemli hale geliyor
Küçük bir ekiple gereksinimlerin karşılanıp karşılanamayacağı henüz bilinmiyor. Güvenlik konusu OpenAI için yeniden daha önemli hale geliyor gibi görünüyor, en azından temsili nedenlerden dolayı, iş ilanları artık medyada gösteriliyor – örneğin The Guardian, ilan edilen pozisyon hakkında haber yapıyor. Şu ana kadar OpenAI bu alanda tasarruf için daha fazla fırsat görüyor gibi görünüyordu.
Mayıs ve Ekim 2024'te dağıtılan Superalignment ve AGI Hazırlık ekiplerinin, Hazırlık Başkanı ile benzer gereksinimleri karşılaması gerekiyor. Bu gruplar, yapay zeka sistemlerinin toplum üzerindeki etkisi ve şirketin yapay zekanın insanların çıkarları doğrultusunda hareket etmesini nasıl sağlayabileceği üzerinde çalıştı. Her iki grubun çalışmaları süper istihbarata (AGI, Yapay Genel Zeka) odaklanmış olsa da, ayrılan liderler ve OpenAI'nin diğer eski çalışanları sürekli olarak kaynak eksikliğinden ve ilgili güvenlik hususlarının ihmal edilmesinden şikayetçi oldu. Dil modellerinin mevcut çeşitlerini kullanırken, bazı kullanıcılar süper zekaya sahip olmasalar bile duygusal bağımlılıklar geliştiriyorlar.
İlan edilen pozisyonla ilgili ayrıntılar OpenAI web sitesinde bulunabilir.
(şşşt)

Bir yanıt yazın