Alexandria Ocasio-Cortez kaže da algoritmi mogu biti rasistički. Evo zašto je u pravu.

Pin
Send
Share
Send

Prošlog tjedna novoizabrana američka poslanica Alexandria Ocasio-Cortez izjavila je kao naslovnice kada je rekla, kao dio četvrtog godišnjeg događaja MLK Now-a, da tehnologije i algoritmi za prepoznavanje lica "uvijek imaju te rasne nejednakosti koje se prevode jer su algoritmi i dalje napravljeni ljudi i ti su algoritmi još uvijek vezani za osnovne ljudske pretpostavke. Oni su samo automatizirani. A automatizirane pretpostavke - ako ne popravite pristranosti, jednostavno automatizirate pristranosti. "

Znači li to da algoritmi koji su teoretski utemeljeni na objektivnim matematičkim istinama mogu biti "rasistički?" I ako je tako, što se može učiniti da se ta pristranost ukloni?

Ispada da rezultati algoritama doista mogu proizvesti pristrane rezultate. Znanstvenici kažu da računalni programi, neuronske mreže, algoritmi strojnog učenja i umjetna inteligencija (AI) djeluju jer uče kako se ponašati prema podacima koji im se daju. Softver pišu ljudi koji imaju pristranosti, a podatke o treningu generiraju i ljudi koji imaju pristranosti.

Dvije faze strojnog učenja pokazuju kako se ta pristranost može preliti u naizgled automatizirani proces. U prvoj fazi, fazi treninga, algoritam uči na temelju skupa podataka ili na određenim pravilima ili ograničenjima. Druga faza je faza zaključivanja, u kojoj algoritam primjenjuje ono što je naučio u praksi. Ova druga faza otkriva pristranosti algoritma. Na primjer, ako se algoritam trenira sa slikama samo žena koje imaju dugu kosu, onda će misliti da je svatko tko ima kratku kosu.

Google je zloglasno dospio pod vatru 2015. godine kada je Google Photos crne ljude označio kao gorile, vjerojatno zato što su to bila jedina tamnoputa bića u programu za trening.

I pristranosti se mogu provući kroz mnogo puteva. "Česta greška je obuka algoritma za predviđanje na temelju prošlih odluka pristranih ljudi", rekla je Sophie Searcy, viša znanstvenica podataka u bootcampu Metis za obuku podataka-Metis, za Live Science. "Ako napravim algoritam za automatizaciju odluka koje je prethodno donijela grupa kreditnih službenika, mogao bih se lako riješiti i uvježbati algoritam na prošlim odlukama tih kreditnih službenika. Ali onda, naravno, ako su ti kreditni službenici bili pristrani, tada algoritam koji gradim nastavit će te pristranosti. "

Searcy je naveo primjer COMPAS-a, prediktivnog alata koji se koristi u američkom kaznenom pravosudnom sustavu za određivanje kazne, koji pokušava predvidjeti gdje će se zločin dogoditi. ProPublica je obavio analizu na COMPAS-u i ustanovio da je, kontrolirajući druga statistička objašnjenja, alat precijenio rizik od recidiviranja crnih optuženika i dosljedno podcjenjivao rizik za bijele optuženike.

Kako bi pomogli u borbi protiv algoritmičkih pristranosti, Searcy je rekao Live Scienceu, inženjeri i znanstvenici podataka trebali bi graditi više raznolikih skupova podataka za nove probleme, kao i pokušati razumjeti i ublažiti pristranosti ugrađene u postojeće skupove podataka.

Prije svega, rekla je Ira Cohen, znanstvenica podataka u kompaniji Anodot za prediktivnu analitiku, inženjeri bi trebali imati set obuke s relativno ujednačenim prikazom svih vrsta populacije ako obučavaju algoritam za utvrđivanje etničkih ili rodnih svojstava. "Važno je zastupati dovoljno primjera iz svake populacije, čak i ako su manjina u ukupnoj populaciji koja se ispituje", rekao je Cohen za Live Science. Konačno, Cohen preporučuje provjeru pristranosti na test skupu koji uključuje ljude iz svih ovih skupina. "Ako je za određenu utrku točnost statistički značajno niža od ostalih kategorija, algoritam može imati pristranost, a ja bih procijenio podatke treninga koji su za to upotrijebljeni", rekao je Cohen za LiveScience. Na primjer, ako algoritam može točno identificirati 900 od 1.000 bijelih lica, ali točno detektira samo 600 od 1.000 azijskih lica, onda algoritam može imati pristranost "protiv" Azijata, dodao je Cohen.

Uklanjanje pristranosti može biti nevjerojatno izazovno za AI.

Čak i Google, smatran pretečom u komercijalnom AI-u, očito nije mogao smisliti sveobuhvatno rješenje svog problema s gorilom iz 2015. Wired je otkrio da je Google umjesto da pronađe način za svoje algoritme da razlikuju ljude od boja i gorila. njeni algoritmi za prepoznavanje slike s uopšte identificiranjem gorila.

Googleov primjer dobar je podsjetnik da obuka AI softvera može biti teška vježba, posebno ako softver ne testira ili ne obuči reprezentativna i raznolika skupina ljudi.

Pin
Send
Share
Send