Skip to content
Članak Medium feb 2026.

Karen Covey: Zašto AI detektori pogrešno označavaju tekstove pisane od strane ljudi — novi podaci za 2026.

Karen Covey objavila je ovu analizu u februaru 2026., oslanjajući se na podatke iz akademskih i profesionalnih okruženja da objasni zašto AI detektori pogrešno identifikuju ljudski pisane tekstove stopama koje bi trebalo da zabrine pisce, urednike i institucije koje se oslanjaju na ove alate.

Ključna cifra u članku je stopa lažno pozitivnih rezultata iznad 30% za profesionalni non-fiction u internim revizijama akademskih laboratorija. Eseji o ličnoj istoriji davali su niže stope lažnih uzbuna od tehničkih materijala — što je kontraintuitivno, jer upravo tehnički tekstovi sadrže najveću koncentraciju ljudske stručnosti. Objašnjenje je strukturalno: konvencije tehničkog pisanja naglašavaju jasnoću, doslednost terminologije i predvidljive sintaksičke konstrukcije. Upravo te karakteristike su i sistemi detekcije bili obučeni da identifikuju kao mašinske.

Covey prati ovo do načina na koji detekcija funkcioniše. Ovi alati se oslanjaju na statističke signale — predvidljivost rečenica, distribucije frekvencije reči, strukturalnu regularnost — i upoređuju ih sa skupovima podataka za obučavanje koji se sastoje od poznatog AI outputa. Problem je što su savremeni uredničke standarde nezavisno konvergirali prema istim karakteristikama. Jasnoća, paralelna struktura i sažeta dužina rečenice nisu znaci AI generisanja; oni su znaci uređivanja. Centralni argument članka je direktan: dobar tekst može izgledati kao mašinski, a da to nije.

Jedan dokumentovani slučaj u članku tačno ilustruje problem. Isti članak dobio je prolazne ocene kao sirovi nacrt, mešovite ocene nakon kopiredaktinga, i oznaku “AI-generisano” nakon lekture. Uredničke poboljšice koje su tekst učinile čitljivijim istovremeno su povećale pouzdanje sistema detekcije da je sintetički.

Članak se bavi i onim što pisci rade kao odgovor. Neki koriste alate za “humanizaciju” koji uvode namerno prisustvo grešaka — variranje ritma rečenica, manje formalne prelaze — kako bi zaštitili legitiman rad od lažnih oznaka. Organizacije koje su ozbiljno shvatale automatsku detekciju 2024. i 2025. sada smanjuju oslanjanje na nju u korist ljudskog pregleda.

Tekst je najkorisniji za profesionalne pisce u regulisanim kontekstima — novinarstvo, akademsko izdavaštvo, aplikacije za grantove, pravni dokumenti — gde postoje politike o AI sadržaju, ali se detektori koriste nekritički. Takođe je koristan za urednike koji grade ili revidiraju politike korišćenja AI, jer pruža podatke o tome gde automatska primena politika stvara lažno pouzdanje, a ne tačnu procenu.