AI bi konačno mogao pomoći u suzbijanju govora mržnje

Sadržaj:

AI bi konačno mogao pomoći u suzbijanju govora mržnje
AI bi konačno mogao pomoći u suzbijanju govora mržnje
Anonim

Key Takeaways

  • Novi softverski alat omogućava AI-u da prati internetske komentare zbog govora mržnje.
  • AI je potrebna za moderiranje internet sadržaja zbog ogromne količine materijala koji nadmašuje ljudske mogućnosti.
  • Ali neki stručnjaci kažu da AI praćenje govora izaziva zabrinutost za privatnost.
Image
Image

Kako se govor mržnje na mreži povećava, jedna kompanija kaže da možda ima rješenje koje se ne oslanja na ljudske moderatore.

Startup pod nazivom Spectrum Labs pruža tehnologiju umjetne inteligencije dobavljačima platformi za otkrivanje i zatvaranje toksičnih razmjena u realnom vremenu. Ali stručnjaci kažu da praćenje AI također postavlja pitanja privatnosti.

"Nadgledanje AI često zahtijeva sagledavanje obrazaca tokom vremena, što zahtijeva zadržavanje podataka, " rekao je za Lifewire David Moody, viši saradnik u Schellmanu, kompaniji za procjenu usklađenosti sigurnosti i privatnosti. "Ovi podaci mogu uključivati podatke koje su zakoni označili kao podatke o privatnosti (osobne informacije ili PII)."

Više govora mržnje

Spectrum Labs obećava visokotehnološko rješenje za vjekovni problem govora mržnje.

"U prosjeku, pomažemo platformama da smanje napore u moderiranju sadržaja za 50% i povećavaju otkrivanje toksičnog ponašanja za 10x", tvrdi kompanija na svojoj web stranici.

Spectrum kaže da je radio sa istraživačkim institutima sa ekspertizom u specifičnim štetnim ponašanjima kako bi izgradio preko 40 modela identifikacije ponašanja. Kompanijsku platformu za moderiranje sadržaja Guardian izgradio je tim naučnika i moderatora podataka kako bi "podržao zaštitu zajednica od toksičnosti."

Postoji rastuća potreba za načinima borbe protiv govora mržnje jer je nemoguće da čovjek prati svaki dio online prometa, Dylan Fox, izvršni direktor AssemblyAI, startupa koji pruža prepoznavanje govora i ima klijente uključene u praćenje mržnje govor, rekao je za Lifewire u intervjuu e-poštom.

"Samo na Twitteru ima oko 500 miliona tvitova dnevno", dodao je. "Čak i kada bi jedna osoba mogla provjeriti tweet svakih 10 sekundi, twitter bi trebao zaposliti 60 hiljada ljudi da to uradi. Umjesto toga, koristimo pametne alate poput AI za automatizaciju procesa."

Za razliku od čovjeka, umjetna inteligencija može raditi 24/7 i potencijalno biti pravednija jer je dizajnirana da ujednačeno primjenjuje svoja pravila na sve korisnike bez ikakvih ličnih uvjerenja da se miješaju, rekao je Fox. Tu je i trošak za one ljude koji moraju pratiti i moderirati sadržaj.

"Mogu biti izloženi nasilju, mržnji i groznim djelima, koja mogu biti štetna po mentalno zdravlje osobe", rekao je.

Spectrum nije jedina kompanija koja nastoji automatski otkriti govor mržnje na mreži. Na primjer, Centar Malaysia je nedavno pokrenuo online tracker dizajniran za pronalaženje govora mržnje među malezijskim netizenima. Softver koji su razvili pod nazivom Tracker Benci koristi mašinsko učenje za otkrivanje govora mržnje na mreži, posebno na Twitteru.

Izazov je kako stvoriti prostore u kojima se ljudi zaista mogu konstruktivno družiti jedni s drugima.

Zabrinutost o privatnosti

Dok se tehnička rješenja poput Spectruma mogu boriti protiv govora mržnje na mreži, ona također postavljaju pitanja o tome koliko bi policijski kompjuteri trebali raditi.

Postoje implikacije slobode govora, ali ne samo za govornike čije bi postove bile uklonjene kao govor mržnje, rekla je Irina Raicu, direktorica internetske etike u Markkula centru za primijenjenu etiku na Univerzitetu Santa Clara, u e-poruci za Lifewire intervju.

"Dozvoljavanje uznemiravanja u ime 'slobode govora' navelo je mete takvog govora (posebno kada je usmjeren na određene pojedince) da prestanu govoriti - da u potpunosti napuste različite razgovore i platforme", rekao je Raicu."Izazov je kako stvoriti prostore u kojima se ljudi zaista mogu konstruktivno družiti jedni s drugima."

Nadgledanje govora putem AI ne bi trebalo da izaziva probleme privatnosti ako kompanije koriste javno dostupne informacije tokom nadgledanja, rekao je Fox. Međutim, ako kompanija kupi detalje o tome kako korisnici komuniciraju na drugim platformama kako bi unaprijed identificirali problematične korisnike, to bi moglo izazvati zabrinutost za privatnost.

"Definitivno može biti malo sive zone, ovisno o aplikaciji", dodao je.

Image
Image

Justin Davis, izvršni direktor Spectrum Labs-a, rekao je za Lifewire u e-poruci da tehnologija kompanije može pregledati 2 do 5 hiljada redova podataka u djelićima sekunde. “Ono što je najvažnije, tehnologija može smanjiti količinu toksičnog sadržaja kojem su ljudski moderatori izloženi,” rekao je.

Možda smo na pragu revolucije u AI praćenju ljudskog govora i teksta na mreži. Budući napredak uključuje bolje neovisne i autonomne mogućnosti praćenja kako bi se identificirali ranije nepoznati oblici govora mržnje ili bilo koji drugi cenzurirani obrasci koji će se razvijati, rekao je Moody.

AI će također uskoro moći prepoznati obrasce u specifičnim obrascima govora i povezati izvore i njihove druge aktivnosti kroz analizu vijesti, javnih prijava, analizu obrazaca prometa, fizičko praćenje i mnoge druge opcije, dodao je.

Ali neki stručnjaci kažu da će ljudi uvijek morati raditi s kompjuterima kako bi pratili govor mržnje.

"AI sama neće raditi," rekao je Raicu. "Mora se prepoznati kao jedan nesavršen alat koji se mora koristiti u kombinaciji s drugim odgovorima."

Ispravka 25.1.2022.: Dodan citat Justina Davisa u 5. paragraf od kraja da odražava e-poštu nakon objavljivanja.

Preporučuje se: