TechCrunch: Anthropic добавляет Claude Code авто-режим со встроенным защитным слоем
Anthropic выпустил авто-режим для Claude Code в исследовательском превью: теперь AI может самостоятельно решать, какие действия безопасны, без ожидания подтверждения пользователя на каждом шаге. Функция развивает существующую команду Claude Code «dangerously-skip-permissions» — которая прежде передавала все решения AI без каких-либо ограничений — добавляя защитный AI-слой, проверяющий каждое предлагаемое действие перед его выполнением.
Режим пока работает с Claude Sonnet 4.6 и Claude Opus 4.6. Anthropic рекомендует использовать его в изолированных, sandboxed-средах, чтобы ограничить потенциальный ущерб в случае ошибки. Компания не опубликовала конкретные критерии, по которым защитный слой разграничивает безопасные и рискованные действия. Авто-режим разворачивается для Enterprise и API-пользователей.
Вместе с авто-режимом вышли ещё два обновления Claude Code: Claude Code Review — автоматический ревьюер кода, перехватывающий баги до попадания в кодовую базу, — и Dispatch for Cowork, маршрутизирующий задачи AI-агентам для асинхронного выполнения.
Для PM, участвующих в решениях о AI-инструментарии или работающих с командами на Claude Code, авто-режим ставит практический вопрос о калибровке доверия: сколько автономных действий приемлемо в данном контексте и где должны проходить границы. Формат исследовательского превью сигнализирует, что Anthropic ещё собирает данные о том, где эти границы должны быть.
Общее направление в индустрии последовательно. GitHub и OpenAI уже выпустили автономные инструменты для программирования, действующие без пошагового подтверждения. Авто-режим вписывается в этот тренд, добавляя явный защитный слой — промежуточную позицию между полным контролем человека и неограниченной автономией.