Zašto softver za čitanje emocija može narušiti vašu privatnost

Sadržaj:

Zašto softver za čitanje emocija može narušiti vašu privatnost
Zašto softver za čitanje emocija može narušiti vašu privatnost
Anonim

Key Takeaways

  • Zoom je navodno rekao da će koristiti AI za procjenu osjećaja korisnika ili nivoa angažmana.
  • Grupe za ljudska prava traže od Zoom-a da preispita svoj plan zbog zabrinutosti za privatnost i sigurnost podataka.
  • Neke kompanije takođe koriste softver za otkrivanje emocija tokom intervjua kako bi procijenili da li korisnik obraća pažnju.
Image
Image

Sve veća upotreba umjetne inteligencije (AI) za praćenje ljudskih emocija izaziva zabrinutost za privatnost.

Organizacije za ljudska prava traže od Zoom-a da uspori svoj plan za uvođenje AI koji analizira emocije u svoj softver za video konferencije. Kompanija je navodno rekla da će koristiti AI za procjenu osjećaja korisnika ili nivoa angažmana.

"Stručnjaci priznaju da analiza emocija ne radi", napisao je konzorcij grupa za ljudska prava, uključujući ACLU, u pismu za Zoom. "Izrazi lica su često odvojeni od emocija ispod njih, a istraživanja su otkrila da čak ni ljudi ne mogu precizno pročitati ili izmjeriti emocije drugih ponekad. Razvijanje ovog alata dodaje vjerodostojnost pseudonauci i stavlja vašu reputaciju na kocku."

Zoom nije odmah odgovorio na zahtjev Lifewire-a za komentar.

Pratite svoje emocije

Prema članku Protokola, sistem za praćenje Zoom pod nazivom Q for Sales bi provjerio omjer vremena razgovora korisnika, kašnjenje u vremenu odgovora i česte promjene zvučnika kako bi pratio koliko je osoba angažirana. Zoom bi koristio ove podatke za dodjelu bodova između nula i 100, s višim rezultatima koji ukazuju na veći angažman ili raspoloženje.

Grupe za ljudska prava tvrde da softver može diskriminirati osobe s invaliditetom ili određene etničke pripadnosti pretpostavljajući da svi koriste iste izraze lica, glasovne obrasce i govor tijela za komunikaciju. Grupe također sugeriraju da softver može predstavljati rizik za sigurnost podataka.

Image
Image

"Prikupljanje duboko ličnih podataka moglo bi učiniti bilo koji entitet koji koristi ovu tehnologiju metom za njuškanje vladinih vlasti i zlonamjernih hakera", navodi se u pismu..

Julia Stoyanovich, profesorica informatike i inženjerstva na Univerzitetu u New Yorku, rekla je za Lifewire u intervjuu putem e-pošte da je skeptična u pogledu tvrdnji iza otkrivanja emocija.

"Ne vidim kako takva tehnologija može da funkcioniše - emocionalni izraz ljudi je veoma individualan, veoma kulturološki zavisan i veoma specifičan za kontekst", rekao je Stojanović."Ali, što je možda još važnije, ne vidim zašto bismo željeli da ovi alati rade. Drugim riječima, bili bismo u još većoj nevolji kada bi dobro radili. Ali možda čak i prije nego što razmišljamo o rizicima, trebali bismo pitajte - koje su potencijalne prednosti takve tehnologije?"

Zoom nije jedina kompanija koja koristi softver za otkrivanje emocija. Theo Wills, viši direktor za privatnost u Kuma LLC, konsultantskoj kompaniji za privatnost i sigurnost, rekao je za Lifewire putem e-pošte da se softver za otkrivanje emocija koristi tokom intervjua kako bi se procijenilo da li korisnik obraća pažnju. Takođe se pilotira u transportnoj industriji kako bi se pratilo da li vozači izgledaju pospano, na video platformama kako bi se procijenilo interesovanje i prilagodili preporuke, te u obrazovnim tutorijalima kako bi se utvrdilo da li je određena metoda podučavanja zanimljiva.

Wills je tvrdio da je kontroverza oko softvera za praćenje emocija više pitanje etike podataka nego privatnosti. Rekla je da se radi o sistemu koji donosi odluke u stvarnom svijetu na osnovu predosjećaja.

"Sa ovom tehnologijom, sada pretpostavljate razlog zašto imam određeni izraz lica, ali poticaj iza izraza uvelike varira zbog stvari kao što su društveni ili kulturni odgoj, porodično ponašanje, prošla iskustva ili nervoza u ovom trenutku", dodao je Wills. "Baziranje algoritma na pretpostavci je inherentno pogrešno i potencijalno diskriminatorno. Mnoge populacije nisu zastupljene u populaciji na kojoj se baziraju algoritmi, a odgovarajuća reprezentacija mora biti prioritet prije nego što se ovo koristi."

Praktična razmatranja

Problemi koje pokreće softver za praćenje emocija mogu biti praktični kao i teoretski. Matt Heisie, suosnivač Ferret.ai, aplikacije vođene umjetnom inteligencijom koja pruža inteligenciju veza, rekao je za Lifewire u e-poruci da korisnici moraju pitati gdje se radi analiza lica i koji podaci se pohranjuju. Da li se studija radi na snimcima poziva, obrađuje li se u oblaku ili na lokalnom uređaju?

Također, Heisie je pitala, kako algoritam uči, koje podatke prikuplja o nečijem licu ili pokretima koji bi se potencijalno mogli odvojiti od algoritma i koristiti za ponovno kreiranje nečije biometrije? Da li kompanija pohranjuje snimke kako bi potvrdila ili potvrdila saznanja algoritma, i je li korisnik obaviješten o ovim novim izvedenim podacima ili pohranjenim slikama koje se potencijalno prikupljaju iz njihovih poziva?

"Sve su to problemi koje su mnoge kompanije riješile, ali postoje i kompanije koje je potresao skandal kada se ispostavi da to nisu uradile kako treba", rekla je Heisie. "Facebook je najznačajniji slučaj kompanije koja je povukla svoju platformu za prepoznavanje lica zbog zabrinutosti oko privatnosti korisnika. Matična kompanija Meta sada povlači AR funkcije sa Instagrama u nekim jurisdikcijama kao što su Illinois i Texas zbog zakona o privatnosti koji se odnose na biometrijske podatke."

Preporučuje se: