Zašto novi softver za profilisanje izaziva zabrinutost za privatnost

Sadržaj:

Zašto novi softver za profilisanje izaziva zabrinutost za privatnost
Zašto novi softver za profilisanje izaziva zabrinutost za privatnost
Anonim

Key Takeaways

  • Softver koji koristi umjetnu inteligenciju za profiliranje ljudi izaziva zabrinutost za privatnost.
  • Cryfe kombinuje tehnike bihevioralne analize sa veštačkom inteligencijom.
  • Kineska kompanija Alibaba nedavno se suočila s kritikama nakon što je navodno rekla da njen softver može otkriti Ujgure i druge etničke manjine.
Image
Image

Novi softver koji pokreće umjetna inteligencija koji je namijenjen poslodavcima da profilišu svoje zaposlenike izaziva zabrinutost za privatnost.

Jedna nova softverska platforma, nazvana Cryfe, kombinuje tehnike analize ponašanja sa veštačkom inteligencijom. Programer tvrdi da analizom sitnih tragova softver može otkriti namjere ljudi tokom intervjua. Ali neki posmatrači kažu da Cryfe i drugi tipovi softvera koji analiziraju ponašanje mogu narušiti privatnost.

"Kompanije se sve više oslanjaju na AI za profilisanje, " rekao je stručnjak za AI Vaclav Vincale u intervjuu e-poštom. "Ali čak i ljudi koji kodiraju ove algoritme, a još manje osoba za korisničku podršku koju kontaktirate telefonom, ne mogu vam reći zašto daju bilo kakvu preporuku."

Više od riječi

Cryfe je razvila švajcarska kompanija čije je zaposlene obučio FBI o tehnikama profilisanja. "Cryfe, u svakoj međuljudskoj komunikaciji, ne sluša samo riječi, već identificira i druge signale koje čovjek emituje, kao što su emocije, mikro-izrazi i svi gestovi", rekla je Caroline Matteucci, osnivačica Cryfea, u intervjuu putem e-pošte.

"Tokom regrutovanja, na primjer, ovo nam omogućava da odemo i tražimo pravu ličnost našeg sagovornika."

Matteucci je rekao da je privatnost korisnika zaštićena jer je kompanija transparentna o tome kako njen softver radi. "Korisnik, prije nego što bude u mogućnosti da koristi platformu, mora prihvatiti opšte uslove", rekla je ona.

"Tamo je precizirano da korisnik ni u kom slučaju ne smije dati intervju na analizu bez pismenog pristanka sagovornika."

Cryfe nije jedini softver pokretan umjetnom inteligencijom koji navodno analizira ljudsko ponašanje. Tu je i Humantic, koji tvrdi da analizira ponašanje potrošača. "Humantic-ova revolucionarna tehnologija predviđa svačije ponašanje bez potrebe da polažu test ličnosti", navodi se na web stranici kompanije.

Image
Image

Kompanija tvrdi da koristi AI za kreiranje psiholoških profila kandidata na osnovu riječi koje koriste u životopisima, propratnim pismima, LinkedIn profilima i bilo kojem drugom dijelu teksta koji pošalju.

Bihevioralni softver je u prošlosti naišao na pravne izazove. Godine 2019., Bloomberg Law je izvijestio da je Komisija za jednake mogućnosti zapošljavanja (EEOC) istražila slučajeve navodne nezakonite diskriminacije zbog odluka koje se odnose na ljudske resurse uz pomoć algoritma.

"Ovo će sve morati da se razradi jer je budućnost regrutovanja veštačka inteligencija", rekao je advokat Bradford Newman za Bloomberg.

Neki posmatrači se protive kompanijama koje koriste softver za praćenje ponašanja jer nije dovoljno precizan. U intervjuu, Nigel Duffy, globalni lider za umjetnu inteligenciju u firmi za profesionalne usluge EY, rekao je za InformationWeek da ga muči softver koji koristi kvizove na društvenim mrežama i utiče na otkrivanje.

"Mislim da postoji zaista uvjerljiva literatura o potencijalu za otkrivanje afekta, ali ja razumijem da je način na koji se često implementira prilično naivan," rekao je..

"Ljudi izvlače zaključke da nauka zapravo ne podržava [kao što je] odlučivanje da je neko potencijalno dobar zaposlenik zato što se mnogo smiješi ili odlučuju da se nekome sviđaju vaši proizvodi jer se mnogo smiješe."

kineske kompanije navodno profiliraju manjine

Praćenje ponašanja moglo bi imati i zlokobnije svrhe, kažu neke grupe za ljudska prava. U Kini, gigant internetskog tržišta Alibaba nedavno je podigao pometnju nakon što je navodno tvrdio da njegov softver može otkriti Ujgure i druge etničke manjine.

New York Times je izvijestio da kompanijsko poslovanje u oblaku ima softver koji bi skenirao slike i video zapise.

Ali čak ni ljudi koji kodiraju ove algoritme…ne mogu vam reći zašto daju bilo kakvu preporuku.

The Washington Post je također nedavno izvijestio da je Huawei, još jedna kineska tehnološka kompanija, testirala softver koji bi mogao upozoriti policiju kada njegove nadzorne kamere otkriju Ujgurska lica.

A Huawei patentna prijava iz 2018. navodno je tvrdila da je "identifikacija atributa pješaka vrlo važna" u tehnologiji prepoznavanja lica."Atributi ciljanog objekta mogu biti spol (muško, žensko), starost (kao što su tinejdžeri, sredovečni, stari) [ili] rasa (Han, Ujgur)," piše u aplikaciji.

Glasnogovornik Huawei-a rekao je za CNN Business da funkcija identifikacije etničke pripadnosti "nikada nije trebala postati dio aplikacije."

Razvijajuća upotreba umjetne inteligencije za sortiranje ogromnih količina podataka sigurno će izazvati zabrinutost za privatnost. Možda nikada nećete znati ko ili šta vas analizira sljedeći put kada odete na razgovor za posao.

Preporučuje se: