Skip to content
Статья Medium март 2026 г.

Medium: авторам — контроль над использованием их текстов в обучении AI

О чём анонс

19 марта 2026 года Medium опубликовал анонс, адресованный авторам платформы, с объяснением новых настроек аккаунта: как AI-компании могут использовать опубликованные материалы для обучения моделей. Анонс примечателен тем, что это решение на уровне платформы — оно даёт отдельным авторам активный выбор, а не единую политику, применяемую ко всем по умолчанию.

Контекст: как обучение AI пересеклось с веб-контентом

Большинство крупных языковых AI-моделей обучались на веб-контенте, собранном в масштабах, без явного согласия авторов. Medium содержит большой объём лонгридов, и, как многие издательские платформы, стал источником обучающих данных для моделей таких компаний, как OpenAI, Anthropic, Microsoft и Google. Новые настройки признают это напрямую и применяются к будущему использованию опубликованного контента.

Два варианта настроек

Авторы теперь выбирают между двумя опциями в настройках аккаунта.

Первая — «Приоритет максимального охвата» — является настройкой по умолчанию. Она запрашивает, чтобы AI-компании воздерживались от обучения на материалах автора, если только не обеспечивают атрибуцию и направление трафика обратно к автору. Это вариант для авторов, которые хотят, чтобы их анализ или тексты появлялись как цитируемые источники, когда AI-ассистенты отвечают на связанные вопросы.

Вторая — «Минимизация обучения третьими сторонами» — запрашивает, чтобы все перечисленные AI-компании полностью отказались от обучения на контенте, даже если это означает, что материалы будут реже цитироваться в AI-ответах.

Medium формулирует политику вокруг того, что называет «3К»: согласие (consent), атрибуция (credit) и компенсация (compensation). Настройки напрямую решают первые два. Компенсация — оплата за прошлое или будущее использование обучающих данных — не является частью этого анонса.

Что это означает для авторов

Практический компромисс — между обнаруживаемостью в AI-системах и защитой от обучения на AI. Автор, который хочет, чтобы его материалы цитировались в ответах ChatGPT или Gemini, должен оставить обучение включённым. Автор, озабоченный прежде всего тем, чтобы его голос не был поглощён моделью без компенсации, должен отказаться.

Ни один из вариантов не является очевидно правильным, и Medium признаёт это, делая оба варианта доступными. Настройки не распространяются ретроактивно на контент, уже использованный в обучении; они применяются в будущем.

Кому читать

Каждому автору, публикующему материалы на Medium или любой платформе с аналогичными политиками. В более широком смысле этот анонс служит полезной точкой отсчёта для понимания того, как обсуждения лицензирования данных AI эволюционируют от решений на уровне платформ к выбору на уровне отдельных авторов.