Facebookova tehnologija Deepfake nas neće spasiti, kažu stručnjaci

Sadržaj:

Facebookova tehnologija Deepfake nas neće spasiti, kažu stručnjaci
Facebookova tehnologija Deepfake nas neće spasiti, kažu stručnjaci
Anonim

Key Takeaways

  • Kako deepfake postaje lakše napraviti, novi i poboljšani načini njihovog uočavanja postali su prioritet.
  • Facebookova tehnologija za uočavanje dubokog lažiranja koristi obrnuto mašinsko učenje da otkrije je li video lažan ili nije.
  • Stručnjaci kažu da bi korištenje blockchain tehnologije bio najbolji način da se vidi je li video stvaran ili ne jer se metoda oslanja na kontekstualne podatke.
Image
Image

Facebook je siguran u svoj model mašinskog učenja za borbu protiv deepfakesa, ali stručnjaci kažu da nas mašinsko učenje samo po sebi neće spasiti od prevare deepfakesa.

Kompanije poput Facebooka, Microsofta i Googlea rade na suzbijanju širenja deepfakesa po webu i društvenim mrežama. Iako se metode razlikuju, postoji jedna potencijalno sigurna metoda za uočavanje ovih lažnih videozapisa: blockchains.

“[Blockchains] vam samo daju puno potencijala da potvrdite deepfake na način koji je najbolji oblik provjere koji mogu vidjeti,” Stephen Wolfram, osnivač i izvršni direktor Wolfram Researcha i autor knjige A New Kind of Nauka, rečeno za Lifewire preko telefona.

Facebook's Deepfake-Spotting Tech

Deepfake tehnologija je brzo rasla u posljednjih nekoliko godina. Obmanjujući video snimci koriste metode mašinskog učenja da rade stvari kao što su preklapanje nečijeg lica na tijelo druge osobe, mijenjanje pozadinskih uvjeta, lažna sinhronizacija usana i još mnogo toga. Oni se kreću od bezazlenih parodija do navođenja slavnih ili javnih ličnosti da kažu ili urade nešto što nisu.

Stručnjaci kažu da tehnologija brzo napreduje i da će deepfakes postati uvjerljiviji (i lakši za kreiranje) kako tehnologija bude postala dostupnija i inovativnija.

Image
Image

Facebook je nedavno dao više uvida u svoju tehnologiju otkrivanja dubokih lažnjaka u partnerstvu sa Državnim univerzitetom Michigan. Društvena mreža kaže da se oslanja na obrnuti inženjering od jedne slike generirane umjetnom inteligencijom do generativnog modela koji se koristi za proizvodnju.

Naučnici istraživači koji su radili s Facebookom rekli su da se metoda oslanja na otkrivanje jedinstvenih obrazaca iza AI modela koji se koristi za generiranje deepfake-a.

“Uopštavanjem atribucije slike na prepoznavanje otvorenog skupa, možemo zaključiti više informacija o generativnom modelu koji se koristi za kreiranje deepfake-a koji ide dalje od prepoznavanja da nije viđen ranije. I praćenjem sličnosti među obrascima kolekcije deepfake-a, mogli bismo reći i da li serija slika potiče iz jednog izvora”, napisali su naučnici Xi Yin i Tan Hassner u Facebookovom blog postu o njegovoj metodi uočavanja deepfake-a.

Image
Image

Wolfram kaže da ima smisla da koristite mašinsko učenje da uočite napredni AI model (deepfake). Međutim, uvijek postoji prostor za zavaravanje tehnologije.

„Uopšte nisam iznenađen što postoji pristojan način mašinskog učenja za [otkrivanje deepfakesa],” rekao je Wolfram. „Jedino je pitanje, ako uložiš dovoljno truda, možeš li ga prevariti? Siguran sam da možeš.”

Borba protiv Deepfakesa na drugačiji način

Umjesto toga, Wolfram je rekao da vjeruje da bi korištenje blockchaina bila najbolja opcija za precizno uočavanje određenih vrsta deepfakea. Njegovo mišljenje o korišćenju blockchaina u odnosu na mašinsko učenje datira još iz 2019. godine i rekao je da, na kraju krajeva, blockchain pristup može pružiti preciznije rješenje za naš problem s dubokim lažnjacima.

„Očekivao bih da bi gledaoci slika i videa mogli rutinski provjeravati u odnosu na blockchaine (i 'proračune triangulacije podataka') pomalo kao kako web pretraživači sada provjeravaju sigurnosne certifikate,” napisao je Wolfram u članku objavljenom u Scientific American.

Budući da lanci blokova pohranjuju podatke u blokove koji se zatim povezuju zajedno hronološkim redom, a pošto su decentralizirani lanci blokova nepromjenjivi, uneseni podaci su nepovratni.

Jedino je pitanje ako se dovoljno potrudite, možete li to prevariti? Siguran sam da možeš.

Wolfram je objasnio da ćete stavljanjem videa u blockchain moći vidjeti vrijeme snimanja, lokaciju i druge kontekstualne informacije koje bi vam omogućile da kažete da li je na bilo koji način izmijenjen.

„Uopšteno govoreći, što više metapodataka postoji koji kontekstualizuju sliku ili video, veća je verovatnoća da ćete to moći da kažete,” rekao je on. “Ne možete lažirati vrijeme na blockchainu.”

Međutim, Wolfram je rekao da metoda koja se koristi – bilo da se radi o mašinskom učenju ili korištenju blockchaina – ovisi o vrsti deepfakea od kojeg se pokušavate zaštititi (tj. video na kojem Kim Kardashian govori nešto glupo ili video zapis političar koji daje izjavu ili prijedlog).

“Blockchain pristup štiti od određenih vrsta dubokih lažiranja, baš kao što obrada slika mašinskim učenjem štiti od određenih vrsta dubokih lažiranja,” rekao je.

Suština je, čini se, budnost za sve nas kada je u pitanju suzbijanje nadolazeće lažne poplave.

Preporučuje se: