Nielsen Norman Group: Ne prepuštajte analizu AI-ju
Maria Rosala, direktorka istraživanja u Nielsen Norman Group, snimila je ovaj petominutni video u januaru 2026. Argument cilja konkretnu grešku: istraživači koji predaju kvalitativnu sintezu AI alatu i prihvataju rezultat kao gotove nalaze. Video ne tvrdi da AI nema mesto u istraživanjima — on osporava uklanjanje ljudskog prosuđivanja specifično iz faze analize.
Kome je video namenjen: UX istraživačima i rukovodiocima istraživanja koji eksperimentišu s AI-asistiranom sintezom i žele strukturirani argument za mesta gde nadzor čoveka mora ostati. Korisno je i za stručnjake za istraživačke operacije koji donose odluke o usvajanju alata i smernicama radnih tokova. Video pretpostavlja poznavanje prakse kvalitativnih istraživanja.
Ključni zaključci:
-
Kredibilitet je profesionalna vrednost, ne podrazumevana datost. Kada se analiza prepusti AI-ju, istraživač više ne može uverljivo braniti nalaze — nije generisao interpretaciju, pa je ne može u potpunosti zastupati. Rosala to okviriše kao profesionalni ugled, a ne etiku: stejkholderi koji later ospore nalaze otkrit će jaz između onoga što je prezentovano i onoga što istraživač zaista može da obrazloži.
-
AI-generisana analiza je plitka po konstrukciji. Jezički modeli identifikuju obrasce površinskim statističkim asocijacijama, a ne razumevanjem korisničkog konteksta, istorije projekta ili istraživačke namere. Kvalitet uvida dobijenih bez učešća čoveka strukturno je ograničen — nije samo povremeno netačan, već ograničen u vrsti smisla koji može da proizvede.
-
Kritičko mišljenje nije odvojivo od analize. Analiza kvalitativnih podataka sama po sebi je oblik učenja — istraživači razvijaju razumevanje korisnika kroz rad interpretacije, a ne čitanjem sažetaka. Delegiranje analize uklanja ovu razvojnu funkciju zajedno s praktičnom.
-
Odgovornost postaje nejasna. Kada AI generiše sintezu, nije jasno ko je odgovoran za odluke donete na osnovu tih nalaza. Rosala tvrdi da to stvara organizacioni rizik koji se proteže van istraživačkog tima — tiče se i odluka koje stejkholderi donose koristeći AI-generisane rezultate.
Video je praćen pratećim tekstom i linkovima ka srodnim NN/G kursevima. Četvorodelna struktura čini ga pogodnim za referencu u timskim diskusijama o politici usvajanja AI. Argument nije teorijski: upućen je praktičarima koji već imaju AI alate i odlučuju koliko daleko ić.
Vredi pogledati ako: Vaš tim razmatra korišćenje AI alata za zamenu tematske analize nakon sesija, ili ako ste rukovodilac istraživanja koji gradi smernice za prikladnu upotrebu AI u kvalitativnim istraživačkim tokovima.