Skip to content
Видео UserTesting Insights Unlocked март 2026 г.

Insights Unlocked: UX-исследования для AI — это не только про юзабилити

Эпизод 216 подкаста Insights Unlocked от UserTesting вышел 30 марта 2026 года. Гость выпуска — Прияндка Кувалекар, Senior UX Researcher в Microsoft, где она ведёт исследования для Microsoft Teams Calling и AI-функций в корпоративных инструментах совместной работы. До Microsoft она руководила UX-исследованиями AI-функций в Webex на стороне Cisco, что даёт ей опыт работы с AI-продуктами в двух крупнейших платформах корпоративных коммуникаций.

Центральный тезис выпуска: стандартная метрика успеха в UX — завершил ли пользователь задание без ошибок — для AI-продуктов недостаточна. AI-системы непредсказуемы по своей природе: они могут давать корректные результаты в большинстве случаев и ошибаться именно там, где от них этого не ждут. Это меняет не просто набор метрик, а саму природу исследовательского вопроса.

Для кого

Выпуск адресован UX-исследователям, которые начинают работать с AI-продуктами или уже работают с ними, но используют методологию, разработанную для традиционных детерминированных интерфейсов — кнопка всегда делает одно и то же, меню содержит фиксированный набор пунктов. AI-продукты ломают это допущение. Также полезен продуктовым менеджерам, которые хотят понять, как подходить к оценке качества AI-опыта за пределами точности ответов.

Ключевые идеи

Доверие как конструкт, а не метрика. Традиционные показатели (task completion rate, satisfaction score) не отражают, верит ли пользователь тому, что делает AI. Кувалекар предлагает оценивать доверие через совокупность факторов: прозрачность системы (объясняет ли она свои решения), согласованность результатов (одинаковый ли ответ на один и тот же запрос), точность, ясность сообщений об ограничениях и ощущение контроля у пользователя. Каждый из этих факторов требует отдельных исследовательских инструментов — единой шкалы доверия не существует.

Поведенческое кодирование вместо опросников. Вместо того чтобы спрашивать пользователя после задания, как всё прошло, Кувалекар предлагает анализировать записи взаимодействий и отмечать микросигналы: моменты замешательства, паузы, повторные попытки, уход от функции. Эти поведенческие сигналы фиксируют реакцию на непредсказуемое поведение AI точнее, чем ретроспективная оценка, потому что пользователи склонны рационализировать свой опыт постфактум.

Последовательность важнее точности в отдельном случае. Один некорректный или неожиданный ответ AI способен разрушить доверие, выстроенное серией успешных взаимодействий. Исследования AI-продуктов должны включать оценку поведения системы при разных пользователях, задачах и последовательностях запросов, а не только тестирование отдельных сценариев в изоляции.

Голосовые AI-агенты — отдельная категория. Когда пользователь разговаривает с системой голосом, ожидания в отношении понимания и уместности ответов возрастают. Исследования voice AI-опыта требуют учёта эмоционального измерения: разочарование от неправильно распознанной команды переживается сильнее, чем аналогичная ошибка в текстовом интерфейсе, и формирует более устойчивое негативное отношение к системе.

Эмоциональный UX как исследовательское измерение. Что пользователи чувствуют в процессе взаимодействия с AI — тревогу, уверенность, разочарование — становится таким же значимым показателем, как то, что они делают. Методы emotional research дополняют поведенческий анализ и дают данные, которые невозможно получить через стандартные юзабилити-метрики.

Когда стоит смотреть

Выпуск полезен, если вы проводите юзабилити-тесты AI-функций и замечаете, что результаты не объясняют, почему пользователи избегают определённых функций или перестают им доверять после первоначального использования. Кувалекар даёт конкретный методологический язык и рамку для перестройки таких исследований — от задачных метрик к оценке доверия и поведенческих сигналов.