Zašto nam je potrebna AI koja sama po sebi objašnjava

Sadržaj:

Zašto nam je potrebna AI koja sama po sebi objašnjava
Zašto nam je potrebna AI koja sama po sebi objašnjava
Anonim

Key Takeaways

  • Kompanije sve više koriste umjetnu inteligenciju koja objašnjava kako postiže rezultate.
  • LinkedIn je nedavno povećao prihod od pretplate nakon što je koristio AI koji je predvidio da klijenti budu u opasnosti od otkazivanja i opisao kako je došao do svojih zaključaka.
  • Savezna komisija za trgovinu je rekla da bi veštačka inteligencija koja nije objašnjiva mogla biti istražena.
Image
Image

Jedan od najtoplijih novih trendova u softveru mogla bi biti umjetna inteligencija (AI) koja objašnjava kako postiže svoje rezultate.

Objašnjiva AI se isplati jer softverske kompanije pokušavaju učiniti AI razumljivijom. LinkedIn je nedavno povećao prihod od pretplate nakon što je koristio AI koji je predvidio da klijenti budu u opasnosti od otkazivanja i opisao kako je došao do svojih zaključaka.

"Objašnjiva AI se odnosi na to da možete vjerovati rezultatu, kao i razumjeti kako je mašina dospjela do toga, " rekao je za Lifewire Travis Nixon, izvršni direktor SynerAI i glavni za nauku o podacima, finansijske usluge u Microsoftu..

"'Kako?' je pitanje koje se postavlja mnogim AI sistemima, posebno kada se donose odluke ili se proizvode rezultati koji nisu idealni", dodao je Nixon. "Od nepravednog tretiranja različitih rasa do greške ćelave glave za fudbal, moramo znati zašto AI sistemi proizvode svoje rezultate. Jednom kada shvatimo 'kako', to pozicionira kompanije i pojedince da odgovore 'šta dalje?'."

Upoznavanje AI

AI se pokazao tačnim i daje mnoge vrste predviđanja. Ali AI je često u stanju da objasni kako je došao do svojih zaključaka.

I regulatori primjećuju problem objašnjivosti umjetne inteligencije. Federalna trgovinska komisija je rekla da bi umjetna inteligencija koja nije objašnjiva mogla biti istražena. EU razmatra donošenje Zakona o umjetnoj inteligenciji, koji uključuje zahtjeve da korisnici mogu tumačiti predviđanja umjetne inteligencije.

Linkedin je među kompanijama koje misle da objašnjiva AI može pomoći u povećanju profita. Ranije su se prodavci LinkedIn-a oslanjali na svoje znanje i trošili ogromnu količinu vremena pregledavajući vanmrežne podatke kako bi utvrdili koji će nalozi vjerovatno nastaviti poslovati i za koje proizvode bi mogli biti zainteresirani tokom sljedećeg obnavljanja ugovora. Da bi riješio problem, LinkedIn je pokrenuo program pod nazivom CrystalCandle koji uočava trendove i pomaže prodavačima.

U drugom primjeru, Nixon je rekao da je tokom kreiranja modela određivanja kvota za prodajne snage kompanije, njegova kompanija bila u mogućnosti da inkorporira objašnjivu AI da identifikuje koje karakteristike upućuju na uspješan novi prodajni angažman.

"Sa ovim rezultatom, menadžment ove kompanije bio je u stanju prepoznati koje prodavače treba staviti na 'brzi put', a kojima je potrebna obuka, a sve prije nego što su se pojavili veliki problemi", dodao je on..

Mnoge upotrebe za objašnjivu AI

Objašnjiva AI se trenutno koristi kao provjera crijeva za većinu naučnika podataka, rekao je Nixon. Istraživači koriste svoj model jednostavnim metodama, osiguravaju da ništa nije potpuno pokvareno, a zatim šalju model.

"Ovo je dijelom zato što su mnoge organizacije za nauku podataka optimizirale svoje sisteme oko 'vrijednosti vremena' kao KPI, što je dovelo do ubrzanih procesa i nekompletnih modela," dodao je Nixon.

Brinem se da bi povratni udarac neodgovornih modela mogao vratiti industriju umjetne inteligencije na ozbiljan način.

Ljude često ne uvjeravaju rezultati koje AI ne može objasniti. Raj Gupta, glavni inženjerski direktor u Cogitu, rekao je u e-poruci da je njegova kompanija ispitala kupce i otkrila da bi skoro polovina potrošača (43%) imala pozitivniju percepciju kompanije i AI da su kompanije eksplicitnije o njihovoj upotrebi tehnologije.

I nisu samo finansijski podaci ti koji dobijaju ruku pomoći od objašnjive AI. Jedno područje koje ima koristi od novog pristupa su podaci o slikama, gdje je lako naznačiti za koje dijelove slike algoritam misli da su bitni i gdje je čovjeku lako znati da li ta informacija ima smisla, Samantha Kleinberg, vanredna profesorica u Stevens Tehnološki institut i stručnjak za objašnjivu AI, rekao je Lifewireu putem e-pošte.

"Mnogo je teže to učiniti s EKG-om ili podacima kontinuiranog mjerenja glukoze, " dodao je Kleinberg.

Nixon je predvidio da će objašnjiva AI biti osnova svakog AI sistema u budućnosti. A bez objašnjive AI, rezultati bi mogli biti strašni, rekao je.

"Nadam se da ćemo napredovati na ovom frontu dovoljno daleko da uzmemo objašnjivu AI zdravo za gotovo u godinama koje dolaze i da se danas osvrćemo na to vrijeme iznenađeni da bi itko bio dovoljno lud da postavi modele koje ne razumije “, dodao je."Ako ne dočekamo budućnost na ovaj način, brinem se da bi povratni udar neodgovornih modela mogao vratiti industriju umjetne inteligencije na ozbiljan način."

Preporučuje se: