Skip to content
Članak Medium mar 2026.

Medium: autorima kontrola nad korišćenjem njihovih tekstova u AI treningu

O čemu je najava

Dana 19. marta 2026, Medium je objavio saopštenje upućeno autorima platforme, objašnjavajući nova podešavanja naloga o tome kako AI kompanije mogu da koriste objavljene materijale za trening modela. Najava je vredna pažnje jer je ovo odluka na nivou platforme — daje pojedinačnim autorima aktivan izbor umesto jednoobrazne politike koja se primenjuje na svakoga po podrazumevanom podešavanju.

Kontekst: kako je AI trening isprepleo se sa veb sadržajem

Većina velikih AI jezičkih modela trenirano je na veb sadržaju prikupljenom u velikom obimu, bez eksplicitnog pristanka autora. Medium sadrži veliki volumen dugih tekstova i, poput mnogih izdavačkih platformi, postao je izvor podataka za trening modela kompanija kao što su OpenAI, Anthropic, Microsoft i Google. Nova podešavanja ovo direktno prepoznaju i primenjuju se na buduće korišćenje objavljenog sadržaja.

Dve opcije podešavanja

Autori sada biraju između dve opcije u podešavanjima naloga.

Prva — “Prioritizuj maksimalni doseg” — je podrazumevano podešavanje. Traži od AI kompanija da se uzdrže od treniranja na autorovim materijalima osim ako ne obezbede atribuciju i usmere saobraćaj nazad ka autoru. Ovo je opcija za autore koji žele da njihove analize ili tekstovi budu citirani kao izvor kada AI asistenti odgovaraju na slična pitanja.

Druga — “Minimiziraj trening trećih strana” — traži od svih navedenih AI kompanija da se u potpunosti uzdrže od treniranja na sadržaju, čak i ako to znači da će materijali biti ređe citirani u AI odgovorima.

Medium formuliše politiku oko onoga što naziva “3C”: pristanak (consent), atribucija (credit) i naknada (compensation). Podešavanja direktno rešavaju prva dva. Naknada — plaćanje za prošlo ili buduće korišćenje podataka za trening — nije deo ove najave.

Šta ovo znači za autore

Praktični kompromis je između vidljivosti u AI sistemima i zaštite od AI treninga. Autor koji želi da njegovi materijali budu citirani u odgovorima ChatGPT-a ili Gemini-ja treba da ostavi trening uključenim. Autor koji je pre svega zabrinut da njegov glas ne bude apsorbovan u model bez naknade treba da se odjavi.

Nijedna opcija nije očigledno ispravna, i Medium to prepoznaje čineći obe dostupnim. Podešavanja ne važe retroaktivno za sadržaj koji je već korišćen u treningu; primenjuju se u budućnosti.

Ko treba da pročita

Svaki autor koji objavljuje na Medium-u ili bilo kojoj platformi sa sličnim politikama. U širem smislu, ova najava je korisna referentna tačka za razumevanje kako diskusije o AI licenciranju podataka evoluiraju od odluka na nivou platforme ka izborima na nivou individualnih autora.