YENİArtık Haberler yazılarını dinleyebilirsiniz!
OpenAI, chatbot'unu kullanarak gençleri korumak için daha güçlü adımlar attığını söylüyor. Şirket yakın zamanda 18 yaşın altındaki kullanıcılara yönelik davranış kurallarını güncelledi ve ebeveynler ve gençler için yeni yapay zeka okuryazarlığı araçlarını yayınladı. Hareket, teknoloji endüstrisindeki baskının arttığı bir dönemde geldi. Kanun yapıcılar, eğitimciler ve çocuk güvenliği savunucuları yapay zeka şirketlerinin genç kullanıcıları koruyabileceğine dair kanıt istiyor. Son zamanlarda yaşanan bazı trajediler, yapay zeka sohbet robotlarının gençlerin ruh sağlığında oynayabileceği rol hakkında ciddi soruları gündeme getirdi. Güncellemeler umut verici görünse de birçok uzman, gerçek testin bu kuralların pratikte nasıl çalışacağı olacağını söylüyor.
ÜCRETSİZ CyberGuy Raporum için kaydolun
En iyi teknik ipuçlarımı, acil güvenlik uyarılarımı ve özel fırsatlarımı doğrudan gelen kutunuza alın. Ayrıca, Nihai Dolandırıcılık Hayatta Kalma Rehberime anında erişebileceksiniz – kanalıma katıldığınızda ücretsiz CYBERGUY.COM haber bülteni
ÜÇÜNCÜ TARAF İHLALİ, CHATGPT HESAP DETAYLARINI İFŞA EDİYOR
OpenAI, yapay zekanın gençleri çevrimiçi ortamda koruyabileceğini kanıtlama konusunda teknoloji şirketleri üzerindeki baskının artması nedeniyle genç kullanıcılar için daha sıkı güvenlik kuralları duyurdu. (Fotoğrafçı: Daniel Acker/Bloomberg, Getty Images aracılığıyla)
OpenAI'nin yeni gençlik kuralları aslında ne diyor?
OpenAI'nin güncellenmiş Model Spesifikasyonu mevcut güvenlik sınırlarını temel alır ve 13 ile 17 yaş arasındaki genç kullanıcılar için geçerlidir. Küçüklerin yer aldığı cinsel içerikleri engellemeye devam eder ve kendine zarar vermeyi, sanrıları ve manik davranışları caydırır. Gençler için kurallar daha da ileri gidiyor. Modeller, sansürlenmemiş olsa bile sürükleyici romantik rol oyunlarından, birinci şahıs yakınlığından ve şiddet içeren veya cinsel rol oyunlarından kaçınmalıdır. Beden imajı ve yeme davranışlarını tartışırken ekstra dikkatli olmaları gerekir. Güvenlik riskleri ortaya çıktığında chatbot, kullanıcı özerkliğinden ziyade korumaya öncelik vermelidir. Ayrıca gençlerin riskli davranışlarını bakıcılardan gizlemelerine yardımcı olacak tavsiyeler vermekten de kaçınılmalıdır. Bu sınırlar, bir bilgi istemi kurgusal, tarihi veya eğitici olarak çerçevelenmiş olsa bile geçerlidir.
OpenAI'nin gençleri korumak için kullandığını söylediği dört ilke
OpenAI, genç kullanıcılara yönelik yaklaşımının dört temel prensibi takip ettiğini söylüyor:
- Özgürlüğü sınırlasa bile gençlerin güvenliğine öncelik verin
- Ailenizden, arkadaşlarınızdan veya profesyonellerden gerçek dünyadaki desteği teşvik edin
- Gençlere yetişkinler gibi davranmadan, sıcak ve saygılı bir şekilde konuşun
- Şeffaf olun ve kullanıcılara yapay zekanın insan olmadığını hatırlatın
Şirket ayrıca romantik rol yapma veya aşırı görünüm değişiklikleri gibi istekleri reddeden chatbot örneklerini de paylaştı.
EBEVEYNLER NEDEN ÇOCUKLARINA AKILLI TELEFONLARIN KULLANILMASINI ERTELEMEK İSTEYEBİLİR

Şirket, 13 ila 17 yaş arasındaki kullanıcılara yönelik sohbet robotu yönergelerini güncelledi ve ebeveynler ve gençler için yeni yapay zeka okuryazarlığı araçlarını başlattı. (Fotoğrafçı: Daniel Acker/Bloomberg, Getty Images aracılığıyla)
Gençler yapay zeka güvenliği tartışmasını yönlendiriyor
Z kuşağı kullanıcıları günümüzün en aktif chatbot kullanıcıları arasında yer alıyor. Birçoğu ev ödevi yardımı, yaratıcı projeler ve duygusal destek için yapay zekaya güveniyor. OpenAI'nin Disney ile yaptığı son anlaşma, platforma daha da fazla genç kullanıcı çekebilir. Artan popülerlik aynı zamanda incelemeyi de beraberinde getirdi. Son zamanlarda 42 eyaletin başsavcıları büyük teknoloji şirketlerini çocuklar ve korunmasız kullanıcılar için daha güçlü koruma önlemleri almaya çağırdı. Federal düzeyde, önerilen mevzuat daha da ileri gidebilir. Bazı yasa yapıcılar, reşit olmayanların AI sohbet robotlarını kullanmasını tamamen engellemek istiyor.
Uzmanlar neden yapay zeka güvenlik kurallarının işe yarayıp yaramadığını sorguluyor
Güncellemelere rağmen birçok uzman temkinli olmaya devam ediyor. En büyük endişelerden biri katılımdır. Savunucular, chatbotların genellikle uzun süreli etkileşimi teşvik ettiğini ve bunun gençler için bağımlılık yaratabileceğini savunuyor. Belirli istekleri reddetmek bu döngünün kırılmasına yardımcı olabilir. Yine de eleştirmenler, politika belgelerindeki örneklerin tutarlı davranışın kanıtı olmadığı konusunda uyarıyor. Model Spesifikasyonunun geçmiş versiyonları aşırı uyumluluğu yasaklıyordu, ancak modeller kullanıcıları zararlı şekillerde yansıtmaya devam ediyordu. Bazı uzmanlar bu davranışı yapay zeka psikozu olarak adlandırdıkları, sohbet robotlarının çarpık düşünceyi sorgulamak yerine pekiştirdiği durumla ilişkilendiriyor.
Yaygın olarak bildirilen bir vakada, daha sonra intihar ederek ölen bir genç, aylarca bir chatbot ile etkileşimde bulunarak geçirdi. Konuşma kayıtları, sıkıntının tekrar tekrar yansıtıldığını ve doğrulandığını gösterdi. Dahili sistemler kendine zarar vermeyle ilgili yüzlerce mesajı işaretledi. Ancak etkileşimler devam etti. Eski güvenlik araştırmacıları daha sonra, önceki denetleme sistemlerinin içeriği gerçek zamanlı olarak değil, olay gerçekleştikten sonra incelediğini açıkladı. Bu, zararlı konuşmaların kontrol edilmeden devam etmesine izin verdi. OpenAI artık metin, resim ve seste gerçek zamanlı sınıflandırıcılar kullandığını söylüyor. Sistemler ciddi bir risk tespit ettiğinde eğitimli incelemeciler devreye girebilir ve ebeveynler bilgilendirilebilir.
Bazı savunucular OpenAI'yi 18 yaş altı yönergelerini kamuya açık bir şekilde paylaştığı için övüyor. Birçok teknoloji şirketi bu seviyede şeffaflık sunmuyor. Ancak uzmanlar yazılı kuralların yeterli olmadığını vurguluyor. Önemli olan, savunmasız kullanıcılarla yapılan gerçek görüşmeler sırasında sistemin nasıl davrandığıdır. Bağımsız ölçüm ve net uygulama verileri olmadan, eleştirmenler bu güncellemelerin kanıt olmaktan ziyade vaat olarak kaldığını söylüyor.
Ebeveynler gençlerin yapay zekayı güvenli bir şekilde kullanmasına nasıl yardımcı olabilir?
OpenAI, ebeveynlerin gençlerin yapay zekayı sorumlu bir şekilde kullanmalarına yardımcı olmada önemli bir rol oynadığını söylüyor. Şirket, araçların tek başına yeterli olmadığını vurguluyor. Aktif rehberlik en önemlisidir.
1) Gençlerle yapay zeka kullanımı hakkında konuşun
OpenAI, ebeveynler ve gençler arasında yapay zekanın günlük hayata nasıl uyum sağladığına dair düzenli konuşmaları teşvik ediyor. Bu tartışmalar sorumlu kullanıma ve eleştirel düşünmeye odaklanmalıdır. Ebeveynlerin gençlere yapay zeka tepkilerinin gerçek olmadığını ve yanlış olabileceğini hatırlatması isteniyor.
2) Ebeveyn kontrollerini ve korumalarını kullanın
OpenAI, yetişkinlerin gençlerin yapay zeka araçlarıyla nasıl etkileşime gireceğini yönetmesine olanak tanıyan ebeveyn denetimleri sağlar. Bu araçlar özellikleri sınırlayabilir ve gözetim ekleyebilir. Şirket, önlemlerin yüksek riskli konulara ve güvenli olmayan etkileşimlere maruz kalmayı azaltmak için tasarlandığını söylüyor. OpenAI'nin ebeveynlerin atmasını önerdiği adımlar şunlardır.
- Gencin hesap durumunu doğrulayınEbeveynler, gencin hesabının doğru yaşı yansıttığından emin olmalıdır. OpenAI, 18 yaşın altındaki kullanıcılara ait olduğu belirlenen hesaplara daha güçlü koruma önlemleri uyguluyor.
- Mevcut ebeveyn denetimlerini inceleyinOpenAI, yetişkinlerin bir gencin deneyimini kişiselleştirmesine olanak tanıyan ebeveyn kontrolleri sunar. Bu kontroller belirli özellikleri sınırlayabilir ve daha yüksek riskli konular hakkında ekstra gözetim sağlayabilir.
- İçerik korumalarını anlayınGenç hesapları daha sıkı içerik kurallarına tabidir. Bu önlemler, kendine zarar verme, cinselleştirilmiş rol yapma, tehlikeli faaliyetler, beden imajıyla ilgili kaygılar ve güvenli olmayan davranışları gizleme talepleri gibi konulara maruz kalma oranını azaltır.
- Güvenlik bildirimlerine dikkat edinOpenAI, sistemin ciddi risk işaretleri tespit etmesi durumunda ek önlemlerin uygulanabileceğini söylüyor. Bazı durumlarda bu, eğitimli personelin incelemelerini ve ebeveyn bildirimlerini içerebilir.
- Özellikler değiştikçe ayarları tekrar ziyaret edinOpenAI, ebeveynlerin yeni araçlar ve özellikler kullanıma sunuldukça bilgi sahibi olmalarını öneriyor. Platform geliştikçe korumalar zamanla genişleyebilir.
3) Aşırı kullanıma dikkat edin
OpenAI, içerik güvenliği kadar sağlıklı kullanımın da önemli olduğunu söylüyor. Dengeyi desteklemek için şirket, uzun seanslar sırasında mola hatırlatıcıları ekledi. Ebeveynlerin aşırı kullanım belirtilerini gözlemlemeleri ve gerektiğinde müdahale etmeleri teşvik edilir.
4) İnsan desteğini ön planda ve merkezde tutun
OpenAI, yapay zekanın asla gerçek ilişkilerin yerini almaması gerektiğini vurguluyor. Gençler kendilerini stresli veya bunalmış hissettiklerinde ailelerine, arkadaşlarına veya profesyonellere başvurmaya teşvik edilmelidir. Şirket, insan desteğinin hala gerekli olduğunu söylüyor.
5) Duygusal kullanıma sınırlar koyun
Ebeveynler, yapay zekanın okul ödevlerine veya yaratıcılığa yardımcı olabileceğini açıkça belirtmelidir. Duygusal desteğin birincil kaynağı haline gelmemelidir.
6) Gençlerin yapay zekayı gerçekte nasıl kullandıklarını sorun
Ebeveynlerin, gençlerin yapay zekayı ne için kullandıklarını, ne zaman kullandıklarını ve onlara nasıl hissettirdiğini sormaları teşvik ediliyor. Bu konuşmalar sağlıksız kalıpları erkenden ortaya çıkarabilir.
7) Davranış değişikliklerini izleyin
Uzmanlar ebeveynlere daha fazla izolasyon aramalarını, yapay zekaya duygusal olarak güvenmelerini veya chatbot yanıtlarını otorite olarak görmelerini tavsiye ediyor. Bunlar sağlıksız bağımlılığa işaret edebilir.
8) Geceleri cihazları yatak odalarından uzak tutun
Birçok uzman, telefonların ve dizüstü bilgisayarların gece boyunca yatak odalarından uzak tutulmasını öneriyor. Gece geç saatlerde yapay zeka kullanımını azaltmak, uykunun ve zihinsel sağlığın korunmasına yardımcı olabilir.
9) Ne zaman dışarıdan yardım almanız gerektiğini bilin
Eğer bir genç sıkıntı belirtileri gösteriyorsa, ebeveynler güvenilir yetişkinleri veya profesyonelleri dahil etmelidir. Yapay zeka güvenlik araçları gerçek dünyadaki bakımın yerini alamaz.
Yapay Zeka Hile Yaptığında: ÖDÜL HACKİNGİNİN GİZLİ TEHLİKELERİ

Gençler yapay zeka sohbet robotlarına giderek daha fazla güvenirken, yasa yapıcılar ve çocuk güvenliği savunucuları daha güçlü koruma önlemleri talep ediyor. (Fotoğrafçı: Gabby Jones/Bloomberg, Getty Images aracılığıyla)
Profesyonel İpucu: Güçlü bir antivirüs yazılımı ve çok faktörlü kimlik doğrulama ekleyin
Ebeveynler ve gençler çok faktörlü kimlik doğrulamayı etkinleştirmelidir (MFA) mümkün olduğunda gençlerin AI hesaplarında. OpenAI, kullanıcıların ChatGPT hesapları için çok faktörlü kimlik doğrulamayı açmasına olanak tanır.
Etkinleştirmek için şuraya gidin: OpenAI.com ve oturum açın. Aşağı kaydırın ve profil simgesiardından seçin Ayarlar ve seç Güvenlik. Oradan açın çok faktörlü kimlik doğrulama (MFA). Daha sonra size iki seçenek sunulacak. Seçeneklerden biri, oturum açma sırasında tek seferlik kodlar üreten bir kimlik doğrulama uygulamasını kullanıyor. Diğer bir seçenek ise ülke koduna bağlı olarak 6 haneli doğrulama kodlarını kısa mesajla SMS veya WhatsApp yoluyla gönderiyor. Çok faktörlü kimlik doğrulamanın etkinleştirilmesi, parolanın ötesinde ekstra bir koruma katmanı ekler ve gençlerin hesaplarına yetkisiz erişim riskinin azaltılmasına yardımcı olur.
Ayrıca gençlerin yapay zeka araçlarını kullanırken karşılaşabileceği kötü amaçlı bağlantıları, sahte indirmeleri ve diğer tehditleri engellemeye yardımcı olabilecek güçlü bir virüsten koruma yazılımı eklemeyi de düşünün. Bu, herhangi bir tek uygulamanın veya platformun ötesinde ekstra bir koruma katmanı ekler. Güçlü antivirüs koruması ve iki faktörlü kimlik doğrulamanın birlikte kullanılması, gençleri güvenli olmayan içerik veya kimliğe bürünme risklerine maruz bırakabilecek hesapların ele geçirilmesi riskinin azaltılmasına yardımcı olur.
Windows, Mac, Android ve iOS cihazlarınız için 2025'in en iyi antivirüs koruması kazananları için seçtiklerimi şu adresten edinin: Cyberguy.com
Testimi çözün: Çevrimiçi güvenliğiniz ne kadar güvenli?
Cihazlarınızın ve verilerinizin gerçekten korunduğunu mu düşünüyorsunuz? Dijital alışkanlıklarınızın nerede olduğunu görmek için bu kısa testi yapın. Şifrelerden Wi-Fi ayarlarına kadar, neyi doğru yaptığınıza ve nelerin iyileştirilmesi gerektiğine dair kişiselleştirilmiş bir döküm alacaksınız. Testimi burada yapın: Cyberguy.com
FOX HABER UYGULAMASINI İNDİRMEK İÇİN TIKLAYIN
Kurt'un önemli çıkarımları
OpenAI'nin güncellenen genç güvenliği kuralları, şirketin artan endişeleri ciddiye aldığını gösteriyor. Daha net sınırlar, daha güçlü korumalar ve daha fazla şeffaflık doğru yönde atılmış adımlardır. Yine de kağıt üzerindeki politikalar gerçek konuşmalardaki davranışlarla aynı değildir. Her gün yapay zekaya güvenen gençler için en önemli şey, bu sistemlerin stres, kafa karışıklığı veya savunmasızlık anlarında nasıl tepki vereceğidir. Güvenin oluştuğu veya kaybolduğu yer burasıdır. Ebeveynler için bu an denge gerektirir. Yapay zeka araçları yararlı ve yaratıcı olabilir. Ayrıca rehberliğe, sınırlara ve denetime de ihtiyaç duyarlar. Hiçbir kontrol seti gerçek konuşmaların veya insan desteğinin yerini alamaz. Yapay zeka günlük hayatlarımıza daha fazla dahil oldukça, odak noktası niyetlere değil sonuçlara odaklanmalı. Gençlerin korunması tutarlı yaptırımlara, bağımsız denetime ve ailelerin aktif katılımına bağlı olacaktır.
Gençler duygusal destek için yapay zekaya güvenmeli mi, yoksa bu konuşmalar her zaman insani mi kalmalı? Bize yazarak bize bildirin. Cyberguy.com
ÜCRETSİZ CyberGuy Raporum için kaydolun
En iyi teknik ipuçlarımı, acil güvenlik uyarılarımı ve özel fırsatlarımı doğrudan gelen kutunuza alın. Ayrıca, Nihai Dolandırıcılık Hayatta Kalma Rehberime anında erişebileceksiniz – kanalıma katıldığınızda ücretsiz CYBERGUY.COM haber bülteni
Telif hakkı 2025 CyberGuy.com'a aittir. Her hakkı saklıdır.

Bir yanıt yazın