Maaş 500.000 Doların üzerinde: OpenAI, ChatGPT için bir yönetici arıyor

OpenAI, şirket blogu ve CEO Sam Altman'ın X'te açıkladığı gibi yeni bir pozisyonun reklamını yaptı. Maaş: 555.000 dolar ve hisse senedi opsiyonları. OpenAI'nin yapay zeka modellerinin kalite güvencesine adanmış “küçük, yüksek etkili bir ekibe” liderlik edecek bir Hazırlık Müdürü arıyoruz. Şirket, Hazırlık Çerçevesini kullanarak modellerinin yeteneklerini ve risklerini inceler; Hazırlık Başkanı, “tutarlı, titiz ve operasyonel olarak ölçeklenebilir bir güvenlik hattı oluşturan yetenek değerlendirmeleri, tehdit modelleri ve önlemleri oluşturmak ve koordine etmekten” sorumludur.

Reklamdan sonra devamını okuyun

Vaat edilen maaşın yanı sıra, pozisyon yüksek talepleri de beraberinde getiriyor. Temel olarak yeni çalışan, OpenAI modellerinin istenildiği gibi ve zararsız bir şekilde davranmasını sağlama sorumluluğunu üstlenir. Örneğin X konusunda Sam Altman kendi modellerinin ruh sağlığı alanındaki potansiyelini anlatıyor. 2025 yazında 16 yaşındaki bir gencin, birçok oturumdan oluşan yoğun bir alışverişin ardından ChatGPT'yi kullanarak intihar etmesi nedeniyle ABD'de şu anda bir dava sürüyor. Araştırmacılar genellikle dil modellerinin akıl hastalıklarıyla nasıl başa çıktığı konusunda büyük riskler görüyorlar. Siber güvenlik sorunları da tekrar tekrar ortaya çıkar ve Hazırlık Başkanının rolünün bir parçasıdır. Ayrıca biyolojik savaş etkenleri veya benzeri zararlı maddelere ilişkin sorulara ilişkin tedbirler de sorumluluk alanına girmektedir.

Küçük bir ekiple gereksinimlerin karşılanıp karşılanamayacağı henüz bilinmiyor. Güvenlik konusu OpenAI için yeniden daha önemli hale geliyor gibi görünüyor, en azından temsili nedenlerden dolayı, iş ilanları artık medyada gösteriliyor – örneğin The Guardian, ilan edilen pozisyon hakkında haber yapıyor. Şu ana kadar OpenAI bu alanda tasarruf için daha fazla fırsat görüyor gibi görünüyordu.

Mayıs ve Ekim 2024'te dağıtılan Superalignment ve AGI Hazırlık ekiplerinin, Hazırlık Başkanı ile benzer gereksinimleri karşılaması gerekiyor. Bu gruplar, yapay zeka sistemlerinin toplum üzerindeki etkisi ve şirketin yapay zekanın insanların çıkarları doğrultusunda hareket etmesini nasıl sağlayabileceği üzerinde çalıştı. Her iki grubun çalışmaları süper istihbarata (AGI, Yapay Genel Zeka) odaklanmış olsa da, ayrılan liderler ve OpenAI'nin diğer eski çalışanları sürekli olarak kaynak eksikliğinden ve ilgili güvenlik hususlarının ihmal edilmesinden şikayetçi oldu. Dil modellerinin mevcut çeşitlerini kullanırken, bazı kullanıcılar süper zekaya sahip olmasalar bile duygusal bağımlılıklar geliştiriyorlar.

İlan edilen pozisyonla ilgili ayrıntılar OpenAI web sitesinde bulunabilir.


(şşşt)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir