TechCrunch: Anthropic daje Claude Code auto režim sa ugrađenim zaštitnim slojem
Anthropic je objavio auto režim za Claude Code u istraživačkom preview-u, dajući AI-u sposobnost da samostalno odlučuje koje su akcije bezbedne bez čekanja na potvrdu korisnika na svakom koraku. Funkcija nadograđuje postojeću komandu Claude Code-a “dangerously-skip-permissions” — koja je ranije sve odluke prepuštala AI-u bez ikakvih ograničenja — dodajući zaštitni AI sloj koji proverava svaku predloženu akciju pre njenog izvršavanja.
Režim trenutno radi sa Claude Sonnet 4.6 i Claude Opus 4.6. Anthropic preporučuje korišćenje u izolovanim, sandbox okruženjima kako bi se ograničio potencijalni uticaj u slučaju greške. Kompanija nije objavila specifične kriterijume koje zaštitni sloj koristi za razlikovanje bezbednih od rizičnih akcija. Auto režim se postepeno uvodi za Enterprise i API korisnike.
Uz auto režim, objavljena su još dva ažuriranja Claude Code-a: Claude Code Review — automatski reviewer koda koji hvata bugove pre nego što dospeju u kodebezu — i Dispatch for Cowork, koji usmerava zadatke AI agentima za asinhrono izvršavanje.
Za PM-ove koji učestvuju u odlukama o AI alatima ili rade sa timovima koji koriste Claude Code, auto režim postavlja praktično pitanje o kalibraciji poverenja: koliko autonomnih akcija je prihvatljivo u datom kontekstu i gde treba da budu granice. Format istraživačkog preview-a signalizira da Anthropic još uvek prikuplja dokaze o tome gde te granice treba da se nalaze.
Opšti pravac u industriji je dosledan. GitHub i OpenAI su već objavili autonomne alate za programiranje koji deluju bez potvrde na svakom koraku. Auto režim uklapa se u taj trend dodavanjem eksplicitnog zaštitnog sloja — srednja pozicija između potpunog nadzora čoveka i neograničene autonomije.