Alexandria Ocasio-Cortez pravi, da so algoritmi lahko rasistični. Evo zakaj ima prav.

Pin
Send
Share
Send

Prejšnji teden je novoizvoljena ameriška poslanka Alexandria Ocasio-Cortez zapisala naslove, ko je v okviru četrtega letnega dogodka MLK Now dejala, da tehnologije in algoritmi za prepoznavanje obraza "vedno preidejo v rasno neenakost, ki se prevede, ker so algoritmi še vedno narejeni človeški bitji in ti algoritmi so še vedno vezani na osnovne človeške predpostavke. So samo avtomatizirane. In avtomatizirane predpostavke - če ne popravite pristranskosti, potem samo avtomatizirate pristranskost. "

Ali to pomeni, da so algoritmi, ki teoretično temeljijo na objektivnih resnicah matematike, lahko "rasistični?" In če je tako, kaj lahko storimo, da odstranimo to pristranskost?

Izkazalo se je, da lahko rezultat iz algoritmov resnično prinese pristranske rezultate. Znanstveniki podatkov pravijo, da računalniški programi, nevronske mreže, algoritmi strojnega učenja in umetna inteligenca (AI) delujejo, ker se učijo, kako se obnašati na podlagi podatkov, ki jim dajejo podatke. Programsko opremo pišejo ljudje, ki imajo pristranskost, podatke o usposabljanju pa ustvarjajo tudi ljudje, ki imajo pristranskost.

Dve stopnji strojnega učenja kažeta, kako lahko ta pristranskost preide v na videz avtomatiziran postopek. V prvi fazi, fazi usposabljanja, se algoritem uči na podlagi nabora podatkov ali na določenih pravilih ali omejitvah. Druga stopnja je faza sklepanja, v kateri algoritem uporablja tisto, kar se je naučil v praksi. Ta druga faza razkriva pristranskost algoritma. Na primer, če je algoritem usposobljen s slikami samo žensk, ki imajo dolge lase, potem bo mislil, da je moški vsak s kratkimi lasmi.

Google je zloglasno padel leta 2015, ko je Google Photos temnopolte ljudi označil za gorile, verjetno zato, ker so bile to edina temnopolta bitja v vadbeni garnituri.

In pristranskosti lahko preplavijo številne poti. "Pogosta napaka je usposabljanje algoritma za določanje napovedi, ki temelji na preteklih odločitvah pristranskih ljudi," je za Live Science povedala Sophie Searcy, višja podatkovna znanstvenica v bootcampu Metis. "Če naredim algoritem za avtomatizacijo odločitev, ki jih je prej sprejela skupina posojilodajalcev, bi se lahko lotil po lahki poti in algoritem usposobil pretekle odločitve teh posojilodajalcev. Toda seveda, če bi bili ti posojilodajalci pristranski, potem algoritem, ki ga sestavim, bo nadaljeval te pristranskosti. "

Searcy je navedel primer podjetja COMPAS, napovednega orodja, ki se uporablja v ameriškem kazenskem pravosodju za kaznovanje, ki poskuša napovedati, kje se bo zgodil zločin. ProPublica je opravil analizo na COMPAS in ugotovil, da je orodje po nadzorovanju drugih statističnih razlag pretirano tvegalo recidivizem črnih obtožencev in nenehno podcenjevalo tveganje za bele obtožene.

Searcy je za Live Science povedal Searcy, da bi pomagali v boju proti algoritmičnim pristranostim, inženirji in podatkovni znanstveniki bi morali graditi bolj raznolike nabore podatkov za nove težave, pa tudi poskušati razumeti in omiliti pristranskosti, vgrajene v obstoječe nabore podatkov.

Najprej in predvsem, je dejala Ira Cohen, podatkovna znanstvenica v podjetju za napovedno analitiko Anodot, inženirji bi morali imeti nabor usposabljanja z razmeroma enotno zastopanost vseh vrst populacije, če usposabljajo algoritem za določitev etničnih ali spolnih lastnosti. "Pomembno je predstavljati dovolj primerov iz vsake skupine prebivalstva, četudi so manjšina v celotni populaciji, ki jo preučujemo," je povedal Cohen za Live Science. Na koncu Cohen priporoča preverjanje pristranskosti na testnem nizu, ki vključuje ljudi iz vseh teh skupin. "Če je za določeno dirko natančnost statistično bistveno nižja od drugih kategorij, ima algoritem lahko pristranskost in ocenil bi podatke o treningu, ki so bili uporabljeni zanj," je za LiveScience povedal Cohen. Na primer, če lahko algoritem pravilno prepozna 900 od 1.000 belih obrazov, pravilno pa zazna le 600 od 1.000 azijskih obrazov, potem ima algoritem lahko pristranskost "proti" Azijcem, je dodal Cohen.

Odstranjevanje pristranskosti je za AI lahko izredno zahtevno.

Tudi Google, ki velja za predhodnika v komercialnem AI, očitno ni mogel najti celovite rešitve svoje težave z gorilo iz leta 2015. Wired je ugotovil, da je Google namesto tega, da bi našel algoritme, kako razlikovati med barvami in gorilami, preprosto blokiral njeni algoritmi za prepoznavanje slike iz tega, da sploh prepoznajo gorile.

Googlov primer je dober opomnik, da je usposabljanje AI programske opreme lahko težka vaja, zlasti kadar programske opreme ne preizkuša in ne usposobi reprezentativna in raznolika skupina ljudi.

Pin
Send
Share
Send