Microsoft objavljuje Zero Trust za AI
Microsoft-ov okvir Zero Trust za AI primenjuje ustanovljeni Zero Trust bezbednosni model — eksplicitna verifikacija, pristup sa minimalnim privilegijama, pretpostavka proboja — na AI sisteme. Objava uključuje i konceptualne smernice i konkretne alate za obezbeđivanje AI implementacija u poslovnim okruženjima.
Okvir pokriva tri oblasti: kontrolu nad time kojim podacima AI modeli mogu da pristupe (upravljanje podacima), praćenje ponašanja modela u produkciji (analiza ponašanja) i obezbeđivanje da AI rezultati ispunjavaju zahteve usklađenosti (revizorski tragovi i zaštitni okviri).
Za product menadžere, ovo je bitno jer bezbednost i usklađenost sve više postaju čuvari kapije za pokretanje AI funkcionalnosti. Mnoge organizacije imaju AI funkcionalnosti zaglavljene u pilot fazi jer bezbednosnim timovima nedostaju okviri za njihovu evaluaciju i odobravanje. Microsoft-ov Zero Trust za AI pruža standardnu referencu koju bezbednosni timovi mogu da koriste, potencijalno deblokirajući pokretanja AI proizvoda koja su čekala odobrenje upravljanja.
PM-ovi koji grade AI proizvode za preduzeća treba da prate ovo jer može postati podrazumevani bezbednosni okvir na koji se timovi za nabavku i usklađenost pozivaju pri evaluaciji proizvoda sa AI.