Карен Кови: Почему детекторы AI ошибочно маркируют человеческое письмо — новые данные 2026 года
Карен Кови опубликовала этот анализ в феврале 2026 года, опираясь на данные из академической и профессиональной среды, чтобы объяснить, почему AI-детекторы ошибочно идентифицируют человеческие тексты с показателями, которые должны вызывать тревогу у авторов, редакторов и институтов, полагающихся на эти инструменты.
Ключевая цифра в статье — уровень ложноположительных результатов выше 30% для профессионального нон-фикшна во внутренних аудитах академических лабораторий. Эссе о личной истории давали более низкий уровень ложных срабатываний, чем технические материалы — это контринтуитивно, поскольку именно технические тексты содержат наибольшую концентрацию человеческой экспертизы. Объяснение структурное: конвенции технического письма требуют ясности, согласованности терминологии и предсказуемых синтаксических конструкций. Именно эти характеристики и были обучены идентифицировать системы детекции как машинные.
Кови прослеживает это до принципа работы детекторов. Эти инструменты опираются на статистические сигналы — предсказуемость предложений, распределение частотности слов, структурную регулярность — и сравнивают их с обучающими датасетами из заведомо AI-сгенерированного контента. Проблема в том, что современные редакторские стандарты независимо сошлись к тем же признакам. Ясность, параллельный синтаксис и сжатая длина предложений — не признаки AI-генерации; они признаки редактуры. Центральный тезис статьи прямой: хороший текст может выглядеть как машинный, не будучи им.
Один задокументированный в статье случай иллюстрирует проблему точно. Одна и та же статья получила пропускные оценки в виде чернового варианта, смешанную оценку после копиредактинга и метку «сгенерировано AI» после корректуры. Редакционные улучшения, сделавшие текст более читабельным, одновременно повысили уверенность системы детекции в том, что он синтетический.
Статья также рассматривает то, как авторы реагируют на это. Часть использует инструменты «гуманизации», вводящие намеренную шероховатость — варьирование ритма предложений, менее формальные переходы — чтобы защитить легитимный текст от ложных флагов. Организации, серьёзно относившиеся к автоматическому детектированию в 2024–2025 годах, сейчас снижают зависимость от него в пользу ручной экспертизы.
Материал наиболее полезен для профессиональных авторов в регулируемых контекстах — журналистике, академическом издательстве, грантовых заявках, юридических документах, — где политики в отношении AI-контента существуют, но детекторы используются некритически. Он также полезен для редакторов, разрабатывающих или пересматривающих политики использования AI, поскольку предоставляет данные о том, где автоматическое правоприменение создаёт ложную уверенность, а не точную оценку.