Kako AI može pratiti svoje opasno potomstvo

Sadržaj:

Kako AI može pratiti svoje opasno potomstvo
Kako AI može pratiti svoje opasno potomstvo
Anonim

Key Takeaways

  • Novi rad tvrdi da umjetna inteligencija može odrediti koji bi istraživački projekti mogli zahtijevati više regulacije od drugih.
  • To je dio rastućih napora da se otkrije koja vrsta AI može biti opasna.
  • Jedan stručnjak kaže da je prava opasnost od umjetne inteligencije to što može učiniti ljude glupima.

Image
Image

Vještačka inteligencija (AI) nudi mnoge prednosti, ali i neke potencijalne opasnosti. A sada, istraživači su predložili metodu za praćenje njihovih kompjuteriziranih kreacija.

Međunarodni tim kaže u novom radu da AI može odrediti koje vrste istraživačkih projekata bi mogle trebati više propisa od drugih. Naučnici su koristili model koji spaja koncepte iz biologije i matematike i dio je rastućih napora da otkriju koja vrsta AI može biti opasna.

"Naravno, dok 'sci-fi' opasna upotreba AI može nastati ako tako odlučimo […], ono što čini AI opasnom nije sama AI, već [kako je koristimo], " Thierry Rayna, predsjedavajući Tehnologije za promjene, na École Polytechnique u Francuskoj, rekao je za Lifewire u intervjuu e-poštom. "Implementacija AI može biti ili poboljšanje kompetencija (na primjer, jača relevantnost vještina i znanja ljudi/radnika) ili uništavanje kompetencija, tj. AI čini postojeće vještine i znanje manje korisnim ili zastarjelim."

Keeping Tabs

Autori nedavnog rada napisali su u postu da su napravili model za simulaciju hipotetičkih AI takmičenja. Izvršili su simulaciju stotine puta kako bi pokušali predvidjeti kako bi trke s umjetnom inteligencijom u stvarnom svijetu mogle funkcionirati.

"Varijabla za koju smo otkrili da je posebno važna bila je "dužina" trke - vrijeme koje je našim simuliranim trkama trebalo da postignu svoj cilj (funkcionalni AI proizvod)," napisali su naučnici. "Kada su utrke umjetne inteligencije brzo postigle svoj cilj, otkrili smo da uvijek pobjeđuju takmičari koje smo kodirali da uvijek zanemaruju sigurnosne mjere."

Nasuprot tome, istraživači su otkrili da dugoročni projekti umjetne inteligencije nisu toliko opasni jer pobjednici nisu uvijek bili oni koji su previdjeli sigurnost. "S obzirom na ove nalaze, za regulatore će biti važno da utvrde koliko dugo će različite rase AI vjerovatno trajati, primjenjujući različite propise na osnovu očekivanih vremenskih okvira", napisali su. "Naši nalazi sugeriraju da će jedno pravilo za sve AI trke - od sprinta do maratona - dovesti do nekih ishoda koji su daleko od idealnih."

David Zhao, generalni direktor Coda Strategy, kompanije koja se bavi konsultacijama o AI, rekao je u e-mail intervjuu za Lifewire da identificiranje opasne AI može biti teško. Izazovi leže u činjenici da moderni pristupi AI imaju pristup dubokom učenju.

"Znamo da duboko učenje daje bolje rezultate u brojnim slučajevima upotrebe, kao što su detekcija slike ili prepoznavanje govora", rekao je Zhao. "Međutim, nemoguće je da ljudi razumiju kako algoritam dubokog učenja funkcionira i kako proizvodi svoje rezultate. Stoga je teško reći da li je AI koji daje dobre rezultate opasan jer je ljudima nemoguće razumjeti što se događa."

Softver može biti "opasan" kada se koristi u kritičnim sistemima, koji imaju ranjivosti koje mogu iskoristiti loši akteri ili proizvesti netačne rezultate, rekao je putem e-pošte Matt Shea, direktor strategije u AI firmi MixMode. Dodao je da nesigurna AI također može dovesti do nepravilne klasifikacije rezultata, gubitka podataka, ekonomskog utjecaja ili fizičke štete.

"Sa tradicionalnim softverom, programeri kodiraju algoritme koje osoba može ispitati kako bi otkrila kako da popravi ranjivost ili da popravi grešku gledajući izvorni kod", rekao je Shea."Sa AI, međutim, veliki dio logike se kreira iz samih podataka, kodiranih u strukture podataka kao što su neuronske mreže i slično. To rezultira sistemima koji su "crne kutije" koje se ne mogu ispitati kako bi se pronašle i popravile ranjivosti. kao normalan softver."

Opasnosti pred nama?

Dok je veštačka inteligencija prikazana u filmovima poput Terminatora kao zla sila koja namerava da uništi čovečanstvo, stvarne opasnosti mogu biti prozaičnije, kažu stručnjaci. Rayna, na primjer, sugerira da bi nas umjetna inteligencija mogla učiniti glupljima.

“To može uskratiti ljude da treniraju svoj mozak i razvijaju stručnost,” rekao je on. „Kako možete postati stručnjak za rizični kapital ako većinu svog vremena ne provodite čitajući startup aplikacije? Što je još gore, AI je poznata „crna kutija“i malo je objašnjiva. Neznanje zašto je donesena određena AI odluka znači da će se iz nje moći naučiti vrlo malo, baš kao što ne možete postati stručni trkač vozeći se po stadionu na Segwayu.”

Teško je reći da li je veštačka inteligencija koja daje dobre rezultate opasna, jer je ljudima nemoguće da shvate šta se dešava.

Možda je najneposrednija prijetnja umjetne inteligencije mogućnost da ona može dati pristrasne rezultate, rekao je Lyle Solomon, advokat koji piše o pravnim implikacijama umjetne inteligencije, u intervjuu putem e-pošte.

"AI može pomoći u produbljivanju društvenih podjela. AI je u suštini izgrađen od podataka prikupljenih od ljudskih bića", dodao je Solomon. "[Ali] uprkos ogromnim podacima, on sadrži minimalne podskupove i ne bi uključivao ono što svi misle. Dakle, podaci prikupljeni iz komentara, javnih poruka, recenzija, itd., sa inherentnim predrasudama, učiniće da AI pojača diskriminaciju i mržnju."

Preporučuje se: