Nielsen Norman Group: Начинайте не с AI, а с проблемы
Калеб Спонхейм, специалист по пользовательскому опыту в Nielsen Norman Group с образованием в области вычислительной нейронауки и количественных исследований, записал это четырёхминутное видео в январе 2026 года. Аргумент намеренно сжат: начинать с AI как предполагаемого ответа на продуктовый или исследовательский вопрос — это системная ошибка, а не вопрос предпочтений.
Бэкграунд Спонхейма делает аргумент острее, чем он мог бы выглядеть. Он не критик технологий с гуманитарной позиции — у него есть статистическая и вычислительная база для прямой оценки возможностей AI. Его аргумент против AI-первичного мышления состоит в том, что оно тратит усилия на функции, не приносящие реальной пользы пользователю, а не в том, что AI переоценён в целом.
Кому адресовано видео: Продуктовым менеджерам, UX-исследователям и стратегам, которые сталкиваются с давлением внедрить AI в работу до того, как чётко сформулирована решаемая проблема. Актуально и для команд, рассматривающих предложения о новых функциях, которые начинаются с AI-возможности, а не с потребности пользователя.
Ключевые выводы:
-
Технологически-первичное мышление — это системная ошибка проектирования. Вопрос «как мы можем использовать здесь AI?» до определения проблемы инвертирует последовательность, которая даёт полезные результаты. Спонхейм определяет это как ошибку процесса: неправильный вопрос задаётся первым, и дело не в энтузиазме по отношению к технологии.
-
AI-функции без обоснованных потребностей пользователей не создают ценности. Усилия, вложенные в создание AI-возможностей, не соответствующих определённым проблемам пользователей, не становятся ценными благодаря технической сложности. Результат — потраченное время разработки и функции, которые пользователи игнорируют или перестают использовать после первоначального знакомства.
-
Правильный стартовый вопрос — «какую проблему мы решаем?» Когда проблема чётко сформулирована, решение о том, является ли AI подходящим инструментом, можно принять по существу — и иногда ответ будет положительным. Видео не против AI; это аргумент за строгость в определении его применимости.
-
Команды под давлением «делать AI» сталкиваются с предсказуемым сценарием сбоя. Когда внедрение AI обусловлено бизнес-мандатом, а не потребностью пользователя, результат — функции, которые вызывают первоначальный интерес, но не удерживают вовлечённость. Видео отчасти является аргументом в пользу того, что исследовательские и дизайнерские команды должны отстаивать возврат к определению проблемы в ответ на AI-первичные мандаты.
Видео сопровождается учебным пособием по проектированию AI-продуктов. Краткость намеренна — аргумент достаточно прост, чтобы изложить его за четыре минуты, и Спонхейм не расширяет его сверх необходимого.
Стоит посмотреть, если: Вы участвуете в сессии планирования, где предложенный проект начинается с AI-возможности, а не с проблемы пользователя, или если вам нужна чёткая, лаконичная отправная точка для аргументации против функции, для которой не определён конкретный сценарий использования.