Key Takeaways
- Algoritamska pristrasnost je štetna za tinejdžere koji provode mnogo vremena na internetu, kažu stručnjaci.
- Twitter korisnici su nedavno naišli na problem u kojem su crna lica birana u korist bijelih.
- Mozak tinejdžera u razvoju može biti posebno osjetljiv na štetne efekte algoritamske pristranosti, kažu istraživači.
Predrasude uklopljene u neku tehnologiju, poznate kao algoritamska pristrasnost, mogu biti štetne za mnoge grupe, ali stručnjaci kažu da je posebno štetna za tinejdžere.
Algoritamska pristrasnost, kada kompjuterski sistemi pokazuju rezultate sa predrasudama, je rastući problem. Korisnici Twittera su nedavno pronašli primjer pristrasnosti na platformi kada je algoritam za detekciju slika koji izrezuje fotografije izrezao crna lica u korist bijelih. Kompanija se izvinila zbog problema, ali još nije objavila rješenje. To je primjer pristrasnosti s kojom se tinejdžeri suočavaju kada izlaze na internet, što rade više od bilo koje druge starosne grupe, kažu stručnjaci.
"Većina tinejdžera nije svjesna da ih kompanije društvenih medija imaju za promoviranje određenog sadržaja za koji misle da će se svidjeti korisnicima [kako bi] natjerali da ostanu što je moguće duže na platformi", dr. Mai- Ly Nguyen Steers, docent na Školi medicinskih sestara na Univerzitetu Duquesne koji proučava upotrebu društvenih medija među adolescentima/studentima, rekao je u intervjuu e-poštom.
"Čak i ako postoji određeni nivo svijesti o algoritmu, efekat nedovoljnog lajkova i komentara je i dalje moćan i može uticati na samopoštovanje tinejdžera," dodao je Steers..
Razvoj mozga
Algoritamska pristrasnost može uticati na tinejdžere na nepredviđene načine jer se njihov prefrontalni korteks još uvijek razvija, objasnila je Mikaela Pisani, glavni naučnik za podatke u Rootstrap-u u intervjuu e-poštom.
Efekat ne dobijanja dovoljno lajkova i komentara je i dalje snažan i može uticati na samopoštovanje tinejdžera.
"Tinejdžeri su posebno ranjivi na fenomen 'Social Factory', gdje algoritmi stvaraju društvene klastere na online platformama, što dovodi do anksioznosti i depresije ako se ne zadovolje potrebe tinejdžera za društvenim odobravanjem", rekao je Pisani. "Algoritmi se pojednostavljuju na osnovu prethodnih nesavršenih podataka - što dovodi do prevelike zastupljenosti stereotipa na račun nijansiranih pristupa formiranju identiteta.
"Gledajući šire gledište, takođe nam je prepušteno pitanje, kao društvo, da li želimo algoritme koji oblikuju putovanje naših tinejdžera u odraslo doba, i da li ovaj sistem čak podržava, a ne guši individualni lični rast?"
Zbog ovih problema, postoji rastuća potreba da se tinejdžeri imaju na umu prilikom dizajniranja algoritama, kažu stručnjaci.
"Na osnovu doprinosa stručnjaka za razvoj, naučnika podataka i zagovornika mladih, politike 21. stoljeća oko privatnosti podataka i algoritamskog dizajna također bi se mogle konstruirati imajući na umu posebne potrebe adolescenata," Avriel Epps-Darling, doktorka student na Harvardu, napisao je nedavno. "Ako umjesto toga nastavimo umanjivati ili ignorirati načine na koje su tinejdžeri ranjivi na algoritamski rasizam, šteta će vjerovatno odjeknuti kroz generacije koje dolaze."
Borba protiv pristranosti
Dok se ne nađe rješenje, neki istraživači pokušavaju pronaći načine da smanje štetu koju mladima nanose pristrasni algoritmi.
"Intervencije su bile fokusirane na to da tinejdžeri prepoznaju da njihovi obrasci društvenih medija negativno utiču na njihovo mentalno zdravlje i pokušavaju da smisle strategije za ublažavanje toga (npr. smanjena upotreba društvenih medija)," rekao je Steers.
"Neki od studenata koje smo intervjuisali rekli su da se osećaju primorani da generišu sadržaj kako bi ostao "relevantan", čak i ako ne žele da izlaze ili objavljuju", nastavila je ona. "Međutim, oni osjećaju da trebaju generirati sadržaj kako bi održali svoje veze sa svojim sljedbenicima ili prijateljima."
Konačni odgovor bi mogao biti uklanjanje ljudskih predrasuda iz kompjutera. Ali pošto su programeri samo ljudi, to je težak izazov, kažu stručnjaci.
Jedno od mogućih rješenja je razvoj kompjutera koji su decentralizirani i programirani da zaborave stvari koje su naučili, kaže John Suit, glavni tehnološki direktor u robotskoj firmi KODA.
"Kroz decentralizovanu mrežu, podaci i analitika tih podataka se prikupljaju i analiziraju sa više tačaka", rekao je Suit u intervjuu e-poštom. „Podaci se prikupljaju i obrađuju ne iz jedne obrade AI uma u granicama svog algoritma, već stotine ili čak hiljade.
"Kako se ti podaci prikupljaju i analiziraju, stari "zaključci" ili suvišni podaci se zaboravljaju. Kroz ovaj sistem, algoritam koji je možda započeo s pristrasnošću će na kraju ispraviti i zamijeniti tu pristrasnost ako se pokaže da je pogrešan."
Iako pristrasnost može biti prastari problem, možda postoje načini za borbu protiv njega, barem na mreži. Dizajniranje računara koji odbacuju naše predrasude je prvi korak.