Predviđanje zločina AI bi moglo optužiti pogrešne ljude

Sadržaj:

Predviđanje zločina AI bi moglo optužiti pogrešne ljude
Predviđanje zločina AI bi moglo optužiti pogrešne ljude
Anonim

Key Takeaways

  • Softverska kompanija navodno prikuplja informacije na društvenim mrežama kako bi kreirala profile koji se mogu koristiti za identifikaciju ljudi koji predstavljaju sigurnosni rizik.
  • Voyager Labs je zaključio značajan posao sa japanskom vladinom agencijom.
  • Ali stručnjaci upozoravaju da se softver za predviđanje AI može prevariti.
Image
Image

Vaše informacije na mreži mogu se koristiti za predviđanje da li biste mogli počiniti zločin.

Voyager Labs navodno prikuplja informacije na društvenim mrežama kako bi kreirao profile koji se mogu koristiti za identifikaciju ljudi koji predstavljaju sigurnosni rizik. To je dio rastućih napora da se vještačka inteligencija (AI) koristi za istraživanje potencijalnih kriminalaca. Ali neki stručnjaci kažu da je pokret pun potencijalnih problema.

"Vrlo je teško predvidjeti ljudsko ponašanje, " rekao je za Lifewire Matthew Carr, sigurnosni istraživač u Atumcell Grupi. "Ne možemo ni da predvidimo svoje ponašanje, a kamoli nečije. Mislim da je moguće da bi se veštačka inteligencija mogla koristiti u budućnosti u tu svrhu, ali smo daleko od toga da to sada možemo da uradimo."

Kreiranje profila

Kao što je The Guardian nedavno izvijestio, policijska uprava Los Angelesa istražila je korištenje softvera za predviđanje zločina Voyager Lab-a. Kompanija je takođe objavila da je sklopila značajan posao sa japanskom vladinom agencijom.

Japanski sporazum daje vladinoj agenciji istražnu platformu zasnovanu na umjetnoj inteligenciji koja analizira ogromne količine informacija iz bilo kojeg izvora, uključujući otvorene i duboke podatke.

"Drago mi je što sarađujemo u borbi protiv terora i kriminala," rekla je Divya Khangarot, generalni direktor APAC u Voyager Labs-u, u saopštenju za medije. "Upotrebom najsavremenijih obavještajnih rješenja Voyager Lab-a, naši klijenti stječu jedinstvene mogućnosti za proaktivno identificiranje i ometanje potencijalnih prijetnji. Donosimo dodatne slojeve dubokih istraživačkih uvida koristeći kombinaciju AI, mašinskog učenja i OSINT-a kako bismo otkrili skrivene tragove, narušene informacije, i loši glumci."

Nije tako pametno?

Ali u intervjuu putem e-pošte, Matt Heisie, suosnivač Ferret.ai, koji također koristi AI za predviđanje prestupnika, doveo je u sumnju neke od tvrdnji Voyager Labs-a.

"Postoji li tako jasna veza između, recimo, dosijea o hapšenju i budućeg kriminalnog ponašanja, kao što postoji crna tačka na testu i razvoja tumora?" on je rekao. „Pomislite na sve potencijalne nedoumice koje su se dogodile u tom hapšenju – u kom je kvartu ta osoba živjela, kvantitetu i kvalitetu, čak i predrasudama, policije u tom području. Starost osobe, njen spol, njen fizički izgled, sve to ima uzastopne utjecaje na vjerovatnoću da ta osoba ima dosije o hapšenju, potpuno odvojeno od njene stvarne sklonosti da počini zločin koji pokušavamo predvidjeti."

Okrivljeni sa boljim advokatima vjerovatnije će moći spriječiti da dokumenti postanu dostupni javnosti, rekla je Heisie. Neke jurisdikcije ograničavaju objavljivanje snimaka ili hapšenja kako bi se zaštitili optuženi.

"Kompjuter će učiti na osnovu podataka koje mu date i uključiti sve predrasude koje su ušle u to prikupljanje podataka…"

"Sve ovo dodaje dodatnu pristrasnost algoritmima", dodao je. "Kompjuter će učiti na osnovu podataka koje mu date i uključiti sve predrasude koje su ušle u to prikupljanje podataka u učenje i interpretaciju."

Bilo je nekoliko pokušaja da se stvori kriminal koji predviđa AI, i sa često skandaloznim rezultatima, rekla je Heisie.

COMPAS, algoritam koji policija koristi za predviđanje ponavljanja krivičnog djela, često se koristi u određivanju kazne i kaucije. Suočio se sa skandalom iz 2016. godine zbog rasne pristrasnosti, predviđajući da crnci predstavljaju veći rizik od recidivizma nego što je to zapravo bio slučaj, i obrnuto za bijele optužene.

Preko 1.000 tehnologa i naučnika, uključujući akademike i stručnjake za umjetnu inteligenciju sa Harvarda, MIT-a, Googlea i Microsofta, 2020. govorilo je protiv rada u kojem se tvrdi da su istraživači razvili algoritam koji može predvidjeti kriminal zasnovan isključivo na lice osobe, rekavši da objavljivanje takvih studija jača već postojeću rasnu pristrasnost u sistemu krivičnog pravosuđa, primijetila je Heisie.

Image
Image

Kina je najveće i najbrže rastuće tržište za ovu vrstu tehnologije, prvenstveno zbog široko rasprostranjenog pristupa privatnim podacima, s više od 200 miliona kamera za nadzor i naprednim istraživanjem umjetne inteligencije koji su fokusirani na ovo pitanje dugi niz godina, rekao je Heisie. Sistemi kao što je CloudWalk Police Cloud sada se koriste za predviđanje i praćenje kriminalaca i precizno utvrđivanje provođenja zakona.

"Međutim, i tamo se prijavljuju značajne pristranosti, " rekla je Heisie.

Heisie je dodao da njegova kompanija pažljivo čuva podatke koji ulaze i da ne koristi snimke ili zapise o hapšenju, "fokusirajući se umjesto toga na objektivnije kriterije."

"Naša AI uči iz kuriranih podataka, ali što je još važnije, uči i od ljudi, koji sami analiziraju, kuriraju i procjenjuju zapise i govore nam o svojim interakcijama s drugima", dodao je. "Također održavamo potpunu transparentnost i besplatan i javni pristup našoj aplikaciji (što brže možemo da ih pustimo u beta verziju) i dobrodošli uvid u naše procese i procedure."

Preporučuje se: