Skip to content
Видео Nielsen Norman Group янв. 2026 г.

Nielsen Norman Group: Не передавайте анализ на аутсорс AI

Мария Росала, директор по исследованиям Nielsen Norman Group, записала это пятиминутное видео в январе 2026 года. Аргументация направлена против конкретного сценария сбоя: исследователи передают качественный синтез AI-инструменту и принимают его результат за полноценные выводы. Видео не утверждает, что AI не имеет места в исследованиях — оно оспаривает исключение человеческого суждения именно из этапа анализа.

Кому адресовано видео: UX-исследователям и руководителям исследований, которые экспериментируют с AI-ассистированным синтезом и хотят получить структурированный аргумент в пользу того, где обязательно должен оставаться человеческий контроль. Полезно также для специалистов по исследовательским операциям, принимающих решения о внедрении инструментов и регламентах рабочих процессов. Видео предполагает знакомство с практикой качественных исследований.

Ключевые выводы:

  1. Авторитет — это профессиональный актив, а не заданность. Когда анализ передаётся AI, исследователь больше не может убедительно защитить результаты — он не создавал интерпретацию и не может полностью за неё отвечать. Росала трактует это не как этический, а как профессиональный вопрос: стейкхолдеры, которые впоследствии поставят выводы под сомнение, обнаружат разрыв между тем, что было представлено, и тем, что исследователь может реально обосновать.

  2. AI-генерируемый анализ поверхностен по своей природе. Языковые модели выявляют паттерны через статистические ассоциации, а не через понимание пользовательского контекста, истории проекта или исследовательских задач. Качество инсайтов, полученных без участия человека, структурно ограничено — не просто периодически неточно, а ограничено в том виде смысла, который оно способно произвести.

  3. Критическое мышление неотделимо от анализа. Анализ качественных данных сам по себе является процессом обучения — исследователи формируют понимание пользователей именно через работу интерпретации, а не через чтение резюме. Делегирование анализа устраняет эту функцию развития наряду с практической.

  4. Ответственность становится размытой. Когда AI генерирует синтез, неясно, кто несёт ответственность за решения, принятые на основе этих выводов. Росала утверждает, что это создаёт организационный риск, выходящий за пределы исследовательской команды — он касается и решений, которые принимают стейкхолдеры на основе AI-генерированных результатов.

Видео сопровождается ссылками на статью и связанные курсы NN/G. Четырёхчастная структура делает его удобным для ссылки в командных обсуждениях политики внедрения AI. Аргументация не теоретическая: она адресована практикам, у которых уже есть AI-инструменты и которые решают, насколько активно их использовать.

Стоит посмотреть, если: Ваша команда рассматривает использование AI-инструментов для замены тематического анализа после сессий, или если вы руководитель исследований и выстраиваете руководство по допустимому использованию AI в качественных исследованиях.