Key Takeaways
- Twitter se nada da će ispraviti ono što korisnici nazivaju rasnom pristrasnošću u svom softveru za pregled slika.
- Poziv tehnološkog giganta mogao bi biti kulturni obračun koji industrija treba da se pozabavi pitanjima različitosti.
- Nedostatak raznolikosti tehnologije šteti efikasnosti njenog tehnološkog napretka.
Twitter je spreman da pokrene istragu o svom algoritmu za izrezivanje slika nakon što je postao popularna tema koja je podstakla veći razgovor o pitanjima raznolikosti u tehnološkoj industriji.
Džagernaut društvenih medija dospeo je na naslovnice nakon što su korisnici otkrili očiglednu rasnu pristrasnost u njegovom algoritmu za pregled slika. Otkriće se dogodilo nakon što je korisnik Twittera Colin Madland koristio platformu da prozove Zoom-ov neuspjeh da prepozna svoje crne kolege koji su koristili tehnologiju zelenog ekrana, ali je u velikoj ironiji otkrio da se Twitterov algoritam za izrezivanje slika ponašao slično i da je odbacio crna lica.
Svakako, to je veliki problem za svaku manjinu, ali mislim da postoji i mnogo šire pitanje.
Drugi korisnici su se uključili u trend što je izazvalo niz viralnih tvitova koji pokazuju da algoritam dosljedno daje prioritet bijelim i svijetlijim licima, od ljudi do likova iz crtanih filmova, pa čak i pasa. Ovaj neuspjeh ukazuje na veći kulturni pokret u tehnološkoj industriji koji dosljedno nije uspio da uzme u obzir manjinske grupe, što se prelilo na tehničku stranu.
"To čini da se manjine osjećaju užasno, kao da nisu važne, i može se koristiti za druge stvari koje mogu uzrokovati ozbiljniju štetu u nastavku", Erik Learned-Miller, profesor računarskih nauka na Univerzitetu iz Massachusettsa, rekao je u telefonskom intervjuu."Kada odlučite za šta se softver može koristiti i sve štete koje se mogu pojaviti, počinjemo razgovarati o načinima da minimizirate mogućnost da se to dogodi."
Kanarinčić na vremenskoj liniji
Twitter koristi neuronske mreže za automatsko izrezivanje slika ugrađenih u tweetove. Algoritam bi trebao otkriti lica za pregled, ali izgleda da ima primjetnu bijelu pristranost. Glasnogovornica kompanije Liz Kelley objavila je na Tviteru odgovor na sve zabrinutosti.
Kelley je tvitovala, "hvala svima koji su ovo pokrenuli. testirali smo na pristrasnost prije nego što smo poslali model i nismo pronašli dokaze o rasnoj ili rodnoj pristrasnosti u našem testiranju, ali jasno je da imamo više analiza za uradićemo. otvorit ćemo izvorni kod našeg rada kako bi drugi mogli pregledati i replicirati."
Koautor bele knjige "Tehnologije za prepoznavanje lica u divljini: poziv za federalnu kancelariju", Learned-Miller je vodeći istraživač o ekscesima softvera za učenje veštačke inteligencije zasnovanog na licu. Godinama je raspravljao o potencijalnom negativnom utjecaju softvera za učenje slika i govorio je o važnosti stvaranja stvarnosti u kojoj se ove pristranosti ublažavaju na najbolji mogući način.
Mnogi algoritmi za tehnologiju prepoznavanja lica koriste referentne skupove za podatke, često poznate kao skupovi za obuku, koji su zbirka slika koja se koristi za fino podešavanje ponašanja softvera za učenje slika. To na kraju omogućava AI da lako prepozna široku lepezu lica. Međutim, ovim referentnim skupovima može nedostajati raznolika grupa, što dovodi do problema poput onih s kojima se suočava Twitter tim.
"Svakako, to je veliki problem za svaku manjinu, ali mislim da postoji i mnogo šire pitanje", rekao je Learned-Miller. "To se odnosi na nedostatak raznolikosti u tehnološkom sektoru i potrebu za centraliziranom, regulatornom snagom koja bi pokazala ispravnu upotrebu ove vrste moćnog softvera sklonog zloupotrebi i zloupotrebi."
Tehnologija bez raznolikosti
Twitter je možda najnovija tehnološka kompanija na udaru, ali ovo je daleko od novog problema. Tehnološka oblast ostaje pretežno bela, u kojoj stalno dominiraju muškarci i istraživači su otkrili da nedostatak raznolikosti uzrokuje replikaciju sistemskih, istorijskih neravnoteža u razvijenom softveru.
U izvještaju Instituta AI Now njujorškog univerziteta za 2019., istraživači su otkrili da crnci čine manje od 6 posto radne snage u vrhunskim tehnološkim firmama u zemlji. Slično, žene čine samo 26 posto radnika u ovoj oblasti – statistika je niža od njihovog udjela 1960. godine.
To čini da se manjine osjećaju užasno, kao da nisu važne, i može se koristiti za druge stvari koje mogu uzrokovati ozbiljniju štetu u nastavku.
Na površini, ova pitanja reprezentacije mogu izgledati svakodnevna, ali u praksi, nanesena šteta može biti duboka. Istraživači u izvještaju Instituta AI Now sugeriraju da je ovo uzročno povezano s problemima sa softverom koji često ne uzima u obzir nebijele i nemuške populacije. Bilo da se radi o infracrvenim dozatorima sapuna koji ne uspijevaju otkriti tamniju kožu ili Amazonovom AI softveru koji ne uspijeva razlikovati ženska lica od onih njihovih muških kolega, neuspjeh u rješavanju različitosti u tehnološkoj industriji dovodi do neuspjeha tehnologije da se nosi s raznolikim svijetom.
"Postoji mnogo ljudi koji nisu razmislili o problemima i zapravo ne shvaćaju kako te stvari mogu uzrokovati štetu i koliko su te štete značajne", sugerirao je Learned-Miller o učenju AI slika. "Nadajmo se da se taj broj ljudi smanjuje!"