Antropik, Claude Code'a daha fazla kontrol veriyor ancak onu kontrol altında tutuyor

Yapay zeka kullanan geliştiriciler için “titreşim kodlaması” şu anda her eyleme bebek bakıcılığı yapmak veya modelin kontrolsüz çalışmasına izin verme riskini almak anlamına geliyor. Anthropic, Claude'a yapılan son güncellemenin, bazı sınırlamalarla birlikte hangi eylemlerin gerçekleştirilmesinin güvenli olduğuna yapay zekanın karar vermesine izin vererek bu seçimi ortadan kaldırmayı amaçladığını söylüyor.

Yapay zeka araçları giderek daha fazla insan onayını beklemeden hareket edecek şekilde tasarlandığından bu hareket, sektördeki daha geniş bir değişimi yansıtıyor. Buradaki zorluk, hızı kontrolle dengelemektir: Çok fazla korkuluk işleri yavaşlatır, çok azı ise sistemleri riskli ve öngörülemez hale getirebilir. Anthropic'in şu anda araştırma ön izlemesinde olan yeni “otomatik modu” – yani test için uygun ancak henüz bitmiş bir ürün değil – bu iğneye iplik takmak için yaptığı son girişim.

Otomatik mod, her eylemi çalıştırılmadan önce gözden geçirmek, kullanıcının istemediği riskli davranışları ve hızlı enjeksiyon işaretlerini kontrol etmek için yapay zeka korumalarını kullanır; bu, yapay zekanın işlediği içerikte kötü niyetli talimatların gizlendiği ve istenmeyen eylemler gerçekleştirmesine neden olan bir saldırı türüdür. Riskli olanlar engellenirken güvenli eylemler otomatik olarak ilerleyecektir.

Bu aslında Claude Code'un mevcut “tehlikeli bir şekilde izinleri atla” komutunun bir uzantısıdır; bu komut tüm karar alma sürecini yapay zekaya verir, ancak üstüne bir güvenlik katmanı da eklenir.

Bu özellik, GitHub ve OpenAI gibi şirketlerin geliştirici adına görevleri yürütebilen bir dizi otonom kodlama aracına dayanıyor. Ancak kullanıcıdan ne zaman izin isteneceği kararını yapay zekanın kendisine kaydırarak işi bir adım daha ileri götürüyor.

Anthropic, güvenlik katmanının güvenli eylemleri riskli eylemlerden ayırmak için kullandığı belirli kriterleri ayrıntılı olarak açıklamadı; geliştiricilerin bu özelliği geniş çapta benimsemeden önce muhtemelen daha iyi anlamak isteyecekleri bir şey. (Tmzilla bu konuda daha fazla bilgi almak için şirketle iletişime geçti.)

Otomatik mod, Anthropic'in, hataları kod tabanına ulaşmadan önce yakalamak için tasarlanmış otomatik kod inceleme aracı olan Claude Code Review'u ve kullanıcıların işleri kendi adlarına halletmeleri için AI temsilcilerine görev göndermelerine olanak tanıyan Dispatch for Cowork'ü piyasaya sürmesinin ardından geliyor.

Techcrunch etkinliği

San Francisco, CA
|
13-15 Ekim 2026

Otomatik mod önümüzdeki günlerde Enterprise ve API kullanıcılarına sunulacak. Şirket, şu anda yalnızca Claude Sonnet 4.6 ve Opus 4.6 ile çalıştığını söylüyor ve yeni özelliğin “izole ortamlarda” yani üretim sistemlerinden ayrı tutulan, bir şeyler ters giderse olası hasarı sınırlayan korumalı alan kurulumlarında kullanılmasını öneriyor.


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir