Smashing Magazine: Dizajniranje za agentni AI — praktični UX obrasci za kontrolu, pristanak i odgovornost
Objavljen u februaru 2026, članak Viktora Yokka, UX istraživača u ServiceNow, bavi se prazninom koja postoji u većini tekstova o AI u dizajnu: razlikom između dizajniranja pomoću AI alata i dizajniranja za AI sisteme. Dok se većina članaka fokusira na to kako dizajneri mogu koristiti AI za ubrzavanje sopstvenog rada, ovaj se bavi time šta interfejs agentnog sistema mora da pruži da bi mu korisnici mogli da veruju.
Centralni argument je sažet: “Autonomija je rezultat tehničkog sistema. Poverenje je rezultat procesa dizajna.” Sistem koji deluje autonomno ne postaje automatski pouzdan samo zato što ispravno funkcioniše. Poverenje se mora dizajnirati.
Šest UX obrazaca
Yokko opisuje šest obrazaca koji se bave različitim tačkama u kojima agentni sistemi gube poverenje korisnika.
Pregled namere (Intent preview) traži od sistema da pokaže šta će uraditi pre nego što to uradi, dajući korisniku priliku da odobri, izmeni ili preuzme kontrolu. Time se uspostavlja informisani pristanak umesto da se korisnicima prezentuju rezultati na koje nisu imali šansu da utiču.
Regulator autonomije (Autonomy dial) omogućava korisnicima da podese željeni nivo učešća po zadatku — od “posmatraj i predloži” do “deluj autonomno”. Ideja je da tolerancija rizika varira prema zadatku, a ne prema osobi — isti korisnik može željeti da pregleda svaki nacrt mejla, ali da potpuno delegira upravljanje kalendarom.
Objašnjiva logika (Explainable rationale) zahteva od sistema da utemelji svoje obrazloženje u korisnikovim izjavljenim preferencijama: “Rekli ste X, zato sam uradio Y.” Ovo sprečava korisnike da doživljavaju autonomne radnje kao arbitrarne ili nasumične.
Signal poverenja (Confidence signal) traži od sistema da pokaže sopstveni stepen nesigurnosti, kako bi korisnici znali kada treba pažljivije pregledati odluku. Ovo protivdeluje automatizacijskoj pristrasnosti — tendenciji da se AI output nekritički prihvata kada interfejs ne daje nikakav signal o nesigurnosti.
Revizija akcija i poništavanje (Action audit and undo) pruža persistentan dnevnik svega što je sistem uradio, sa lakim mogućnostima povratka. Ovo je najdirektiji mehanizam za smanjenje percipiranog rizika delegiranja.
Put eskalacije (Escalation pathway) opisuje kako bi sistem trebalo da traži pojašnjenje ili ljudsku intervenciju kada je nesiguran, umesto da pogađa. Agent koji prepoznaje sopstvene granice i traži pojašnjenje deluje pouzdanije od onog koji uvek daje odgovor.
Upravljanje i implementacija
Članak se završava odeljkom o tome kako ove obrasce implementirati u praksi, uključujući fazni plan uvođenja (najpre pregled namere i poništavanje, zatim kontrole autonomije, zatim autonomne akcije za niskorizične prethodno odobrene zadatke) i preporuku za formiranje kros-funkcionalnog tima za AI etiku koji uključuje UX, pravni, compliance i podršku — ne samo inženjering i produkt.
Za koga je korisno
Dizajnerima i UX rukovodiocima koji rade na bilo kom proizvodu koji uključuje agentne AI funkcije — kopilote, automatizovane tokove rada, AI asistente sa mogućnostima izvršavanja zadataka. Obrasci su dovoljno opšti za primenu u različitim kontekstima, ali dovoljno konkretni za direktnu upotrebu u dizajn revijama ili produktnim specifikacijama.