Nieman Lab: CEO Grammarly защищает Expert Review — и что этот кейс говорит о согласии на использование данных
В материале Nieman Lab от 23 марта 2026 года Джошуа Бентон восстанавливает полную историю функции Expert Review от Grammarly — от запуска до судебного иска, отключения и публичной защиты со стороны CEO — и анализирует, что именно сказал CEO Grammarly в ответ на критику, а чего так и не сказал.
Expert Review была запущена в конце июля или начале августа 2025 года в составе Grammarly Pro. Функция генерировала AI-подсказки по редактированию и приписывала их реальным авторам и журналистам: Стивену Кингу, Карлу Сагану, Каре Свишер, Нилаю Пателю, Джулии Ангвин, самому Бентону и сотням других. Никто не был предупреждён. Никто не получил вознаграждения. Grammarly брала $12 в месяц за подписку, включавшую эту функцию. Писательница Ингрид Бурринтон придумала термин «слоппельгангеры» (sloppelgangers) для описания феномена — AI-двойников реальных, поимённо названных людей.
9 марта 2026 года журналист Джулия Ангвин подала коллективный иск в федеральный суд Южного округа Нью-Йорка, обвинив Grammarly и Superhuman в нарушении законов штатов Нью-Йорк и Калифорния, запрещающих коммерческое использование чьего-либо имени без согласия. Минимальный запрошенный размер ущерба — $5 млн, фактический ущерб должен быть рассчитан из доходов от функции. По словам её адвоката, с протестами обратились от 40 до 50 человек. Заявление Ангвин: «Я десятилетиями оттачивала навыки писателя и редактора, и мне тягостно обнаружить, что технологическая компания продаёт поддельную версию моей с трудом заработанной экспертизы».
11 марта Grammarly отключила функцию — через восемь месяцев работы. CEO Шишир Мехротра появился на подкасте Decoder Нилая Пателя примерно в то же время, что и материал Бентона. В ходе беседы Патель трижды по-разному задавал вопрос: «Сколько вы должны заплатить мне за использование моего имени?» Мехротра неизменно уходил в сторону формулировок о раскрытии информации — что подсказки «вдохновлены» именами экспертов, — не касаясь вопроса согласия напрямую. Он также признал, что лично не пользовался функцией до того, как разразился скандал.
Анализ Бентона сосредоточен на том, чего избегал CEO: Мехротра последовательно описывал Expert Review как проблему исполнения («не соответствует стратегии»), а не как этическую проблему. В качестве замены он предложил добровольную модель участия с оплатой — «модель YouTube», — не затронув вопрос о том, требует ли прошлое использование какого-либо возмещения.
Материал важен для любого, кто профессионально занимается письмом или редактурой и думает об AI-инструментах. Бентон прослеживает, как продукт для помощи в написании текстов превратился в инструмент неавторизованной идентификации — и почему компания, судя по всему, не зафиксировала этот переход. Правовые и этические границы, обозначенные этим кейсом, — вокруг коммерческого использования имени автора, согласия и компенсации, — скорее всего, будут возникать снова по мере расширения AI-инструментов для письма.