Skip to content
Статья Smashing Magazine февр. 2026 г.

Smashing Magazine: Проектирование для агентного AI — практические UX-паттерны контроля, согласия и подотчётности

Опубликованная в феврале 2026 года статья Виктора Йокко, UX-исследователя из ServiceNow, устраняет пробел, который встречается в большинстве публикаций об AI в дизайне: разницу между проектированием с помощью AI-инструментов и проектированием для AI-систем. Большинство статей рассказывает о том, как дизайнеры могут использовать AI для ускорения своей работы, а эта — о том, что интерфейс агентной системы должен предоставлять, чтобы пользователи могли ей доверять.

Ключевой тезис краткий: «Автономность — это результат технической системы. Доверие — это результат процесса проектирования.» Система, действующая автономно, не становится надёжной автоматически — только потому что работает корректно. Доверие нужно проектировать.

Шесть UX-паттернов

Йокко описывает шесть паттернов, каждый из которых направлен на устранение конкретной точки, в которой агентные системы теряют доверие пользователей.

Предпросмотр намерения (Intent preview) предполагает, что система показывает, что собирается сделать, до того как делает это, давая пользователю возможность одобрить, изменить или взять управление на себя. Это устанавливает осознанное согласие, а не предъявляет пользователю готовые результаты, на которые он не мог повлиять.

Регулятор автономности (Autonomy dial) позволяет пользователям устанавливать предпочтительный уровень участия для каждой задачи — от «наблюдай и предлагай» до «действуй самостоятельно». Идея в том, что готовность к риску определяется задачей, а не личностью: один и тот же пользователь может хотеть проверять каждый черновик письма, но полностью делегировать управление календарём.

Объяснимая логика (Explainable rationale) требует от системы привязывать обоснование к собственным заявленным предпочтениям пользователя: «Вы сказали X — поэтому я сделал Y.» Это предотвращает восприятие автономных действий как произвольных или случайных.

Сигнал уверенности (Confidence signal) предполагает, что система сама показывает степень своей неопределённости, чтобы пользователи знали, когда нужно тщательнее проверить решение. Это противодействует автоматизационной предвзятости — склонности некритически принимать AI-результаты, когда интерфейс не даёт никаких сигналов о неопределённости.

Аудит действий и отмена (Action audit and undo) обеспечивает постоянный журнал сделанного системой с простой возможностью отката. Это самый прямой механизм снижения воспринимаемого риска при делегировании задач.

Путь эскалации (Escalation pathway) описывает, как система должна обращаться за помощью при неопределённости, а не угадывать. Агент, который признаёт свои ограничения и просит уточнений, воспринимается как более надёжный, чем тот, который всегда выдаёт ответ.

Управление и внедрение

Статья завершается разделом о практическом внедрении этих паттернов, включая поэтапный план (сначала предпросмотр намерения и отмена, затем элементы управления автономностью, затем автономные действия для низкорисковых предварительно одобренных задач) и рекомендацию создать кросс-функциональную группу по AI-этике с участием UX, юридического, комплаенс-отдела и службы поддержки — не только разработки и продукта.

Для кого это полезно

Product-дизайнерам и руководителям UX, работающим над любым продуктом, включающим агентные AI-функции — копилоты, автоматизированные рабочие процессы, AI-ассистенты с возможностью выполнения задач. Паттерны достаточно общие, чтобы применяться в разных контекстах, и достаточно конкретные, чтобы использоваться непосредственно в дизайн-ревью или продуктовых спецификациях.