YouTubeovo novo starosno ograničenje AI zabrinjava LGBTQ+ zajednicu

Sadržaj:

YouTubeovo novo starosno ograničenje AI zabrinjava LGBTQ+ zajednicu
YouTubeovo novo starosno ograničenje AI zabrinjava LGBTQ+ zajednicu
Anonim

Key Takeaways

  • YouTubeov automatski softver za dobno ograničenje je razlog za zabrinutost zbog LGBTQ+ sadržaja na platformi.
  • Kompanija je bila poremećena kontroverzama u vezi sa kreatorima LGBTQ+ sadržaja koji umeću sumnju.
  • Pristranosti u mašinskom učenju daju vjerodostojnost ideji da će njegova nesavršena implementacija filtera vjerovatno nepravedno ograničiti pristup.
Image
Image

S istorijom nepravednog ciljanja kreatora LGBTQ+ sadržaja u procesu moderiranja, YouTube-ova nova tehnologija zasnovana na umjetnoj inteligenciji smatra se zabrinjavajućim sljedećim korakom za tehnološkog giganta.

Na službenom YouTube blogu prošle sedmice, platforma za dijeljenje videa je predstavila planove za izdavanje novog automatskog softvera za "dosljedniju primjenu starosnih ograničenja" na videozapise koji se smatraju neprikladnim za mlađe gledaoce.

Motivisan nedavnom zabrinutošću u vezi sa djecom u aplikaciji, novi sistem je baziran na softveru umjetne inteligencije koji uči strojno sa mogućnošću odustajanja od ljudskih moderatora radi automatiziranijeg procesa. Pitanje? YouTube-ovi automatizirani sistemi su optuženi da izdvajaju LGBTQ+ sadržaj i kreatore samo zbog postojanja.

Čak i ako nije zlonamjerno, što ja mislim da nije, to je nedostatak doprinosa različitih glasova - ili barem nedostatak poštovanja.

"Mašinsko učenje informišu i kreiraju ljudi, i moguće je imati te predrasude svojstvene njemu ili ih je naučila sama mašina", rekao je YouTuber Rowan Ellis u telefonskom intervjuu za Lifewire. „Njegova pristrasnost u pogledu sadržaja [LGBTQ+] bila je očigledna u prethodnim iskustvima [LGBTQ+] YouTubera, i nisam vidio dokaze da je bilo šta učinjeno da se to spriječi."

Dušo, sada imamo lošu krv

Ellis je jutjuberka koja kreira obrazovni sadržaj sa feminističkim i queer naklonostima, a 2017. je objavila video o ograničenom načinu rada kompanije. Kao početni pohod na automatsko moderiranje sadržaja, ovaj način je omogućio korisnicima da opciono unaprijed pregledaju "potencijalno zreli sadržaj" iz prijedloga i preporuka za pretraživanje.

Skupivši preko 100.000 pregleda, ona vjeruje da je postojao svjestan pokušaj da se spriječi ograničenje njenog kanala zbog njenog glasnog protivljenja ekscesima YouTube-ovog novog koraka ka moderiranju. Drugi korisnici na platformi nisu imali te sreće, pa su YouTube to učinili do znanja.

Grupnu tužbu protiv YouTube-a podnijela je u avgustu 2019. grupa od osam LGBTQ+ kreatora koji su optužili kompaniju iz Silikonske doline za ograničavanje queer i trans video stvaralaca i sadržaja. U tužbi se navodi da stranica koristi „nezakonite prakse regulacije sadržaja, distribucije i monetizacije koje stigmatiziraju, ograničavaju, blokiraju, demonetiziraju i finansijski štete LGBT tužiteljima i široj LGBT zajednici. Još uvijek se probija kroz kalifornijske sudove.

Mašinsko učenje informišu i kreiraju ljudi, i moguće je imati te predrasude inherentne njemu ili naučene od same mašine.

U junu iste godine, platforma je privukla poplavu medijske pažnje nakon što je odbila da brzo ukori popularnog konzervativnog komentatora Stevena Crowdera zbog višemjesečne, homofobične kampanje uznemiravanja novinara Voxa i voditelja Carlosa Maze. Ovo je učvrstilo ono što je Ellis rekao da je obrazac sa online platformom ignorisanja jedinstvenih izazova sa kojima se queer kreatori suočavaju. Nedostatak vjere LGBTQ+ kreatora u sposobnost YouTubea da se pojavi za njih nije bez zasluga.

"Mislim da nisu shvatili potrebu da postoji transparentnost u pogledu društvenih pitanja i osiguravanja jednakosti", rekla je ona. „I dalje ima djece širom svijeta koja su odrasla s idejom da je biti gej pogrešno, a kada počnu dovoditi u pitanje to vjerovanje, ali ga ugase sigurnom potragom ili ograničenjem, to će ojačati tu ideju da je pogrešno, neprikladno, za odrasle, perverzno i prljavo."

Neuspješno automatsko učenje

S obzirom na svoju lošu istoriju u vezi sa kreatorima LGBTQ+ sadržaja na svojoj platformi, i dalje se nazire briga oko implementacije sposobnosti softvera za mašinsko učenje da prepozna veće norme. Don Heider, izvršni direktor Markkula Centra za primijenjenu etiku, sugerira da je potencijal za ludost preveliki rizik da bi se kockao.

"Teško je povjerovati da AI može efikasno upravljati sadržajem iz više zemalja s različitim kulturnim normama i standardima", napisao je u intervjuu putem e-pošte. "AI se prečesto smatra odgovorom na složena pitanja. U ovom trenutku, AI i način na koji je kreiran, bore se da se nose čak i sa jednostavnim zadacima, a kamoli sa moderiranjem sadržaja bilo kojeg nivoa složenosti."

YouTube se odlučio za korištenje AI tehnologije zbog nedostatka dosljedne moderacije od strane ljudskih moderatora, prema njegovom blogu. Povećanje upotrebe kompjuterizovanih filtera za uklanjanje videa koji se smatraju neprikladnim postalo je norma, a implementacija istih procedura za politiku starosnog ograničenja smatra se logičnim sledećim korakom.

Kao kompanija koja želi postepeno poboljšati svoje procese nakon dugogodišnjih kritika u vezi sa svojim odnosom prema djeci potrošačima, ova odluka ne iznenađuje.

Mislim da nisu shvatili potrebu da postoji transparentnost u pogledu društvenih pitanja i osiguravanja jednakosti.

Djeca su postala ključna demografska kategorija za stranicu za razmjenu videa. U avgustu, kompanija za digitalnu video analitiku Tubular otkrila je da se, osim muzičkih spotova, sadržaji namijenjeni djeci nalaze na vrhu liste najgledanijih videa na YouTube-u na kraju mjeseca.

Interes kompanije da zaštiti ovu unosnu elektranu u nastajanju na platformi ima smisla. Međutim, alati koji se koriste za sprovođenje ove zaštite ostaju neugodni za one koji su se već našli nizvodno od procedura moderiranja kompanije.

"Brinem se da će učiniti mnogo štete i neće zaštititi [LGBTQ+] mlade kojima je potreban informativan, iskren i pošten sadržaj koji bi mnogi [LGBTQ+] YouTuberi mogli pružiti, ali biva označen u njegovom sistemu kao neprikladan", rekao je Elis."Čak i ako nije zlonamjerno, što ja mislim da nije, to je nedostatak doprinosa različitih glasova - ili barem nedostatak poštovanja.

"To sve vrijeme vidimo u tehnici. Kada gledate u prepoznavanje lica koje ne uspijeva razlikovati različita crna lica, ili kada pogledamo medicinu i vidimo da je lijek testiran samo na određenom spolu. su veći razgovori, a YouTube nije izuzet od toga."

Preporučuje se: