Vaš LinkedIn kontakt bi mogao biti Deepfake

Sadržaj:

Vaš LinkedIn kontakt bi mogao biti Deepfake
Vaš LinkedIn kontakt bi mogao biti Deepfake
Anonim

Key Takeaways

  • Nedavna studija je pokazala da mnogi kontakti na LinkedIn-u nisu stvarni ljudi.
  • To je dio rastućeg problema dubokih lažiranja, u kojem se osoba na postojećoj slici ili videu zamjenjuje kompjuterski izmijenjenim prikazom.
  • Stručnjaci preporučuju da budete oprezni kada kliknete na URL-ove ili odgovarate na LinkedIn poruke.

Image
Image

Možda dvaput razmislite prije nego se povežete s tim prijateljskim licem na mreži.

Istraživači kažu da mnogi kontakti na popularnoj mrežnoj stranici LinkedIn nisu stvarni ljudi. To je dio rastućeg problema dubokih lažiranja, u kojem se osoba na postojećoj slici ili videu zamjenjuje kompjuterski izmijenjenom predstavom.

"Duboki lažnjaci su važni po tome što efektivno eliminišu ono što se tradicionalno smatralo sigurnim metodom potvrđivanja identiteta", rekao je Tim Callan, glavni službenik za usaglašenost firme za sajber sigurnost Sectigo u intervjuu za Lifewire. "Ako ne možete vjerovati glasovnoj ili video poruci vašeg kolege od povjerenja, tada je postalo mnogo teže zaštititi integritet procesa."

Povezivanje s kim?

Istraga o kontaktima na LinkedIn-u počela je kada je Renée DiResta, istraživač na Stanford Internet opservatoriju, dobila poruku sa profila naveden kao Keenan Ramsey.

Bilješka se činila običnom, ali DiResta je primijetio neke čudne stvari o Keenanovom profilu. Kao prvo, slika je prikazivala ženu sa samo jednom minđušom, savršeno centriranim očima i zamagljenim pramenovima kose koji kao da nestaju i ponovo se pojavljuju.

Na Twitteru, DiResta je napisao: "Ovaj nasumični nalog mi je poslao poruku… Lice je izgledalo generisano veštačkom inteligencijom, tako da je moja prva pomisao bila krađa identiteta; poslao je link 'kliknite ovde da uspostavite sastanak'. Pitao sam se da li se pretvara da radi za kompaniju koju je tvrdio da predstavlja jer LinkedIn ne govori kompanijama kada novi računi tvrde da negdje rade… Ali onda sam se javio od još jednog lažnjaka, nakon čega je uslijedila naknadna bilješka od očigledno stvarnog zaposlenik referencira prethodnu poruku od prve lažne osobe, a ona se pretvorila u nešto sasvim drugo."

DiResta i njen kolega, Josh Goldstein, pokrenuli su studiju koja je pronašla više od 1000 LinkedIn profila koji koriste lica za koja se čini da ih je kreirala AI.

Deep Fakers

Duboki lažnjaci rastu problem. Prema jednom objavljenom izvještaju otkriveno je preko 85.000 deepfake videozapisa do decembra 2020. godine.

Odnedavno se duboki lažnjaci koriste za zabavu i pokazivanje tehnologije, uključujući jedan primjer u kojem je bivši predsjednik Barack Obama govorio o lažnim vijestima i dubokim lažnim vijesti.

"Iako je ovo bilo sjajno za zabavu, uz adekvatnu snagu kompjutera i aplikacije, mogli biste proizvesti nešto što [ni] kompjuteri ni ljudsko uho ne mogu razlikovati", Andy Rogers, viši procjenitelj u Schellmanu, globalnom procjenitelj kibernetičke sigurnosti, rekao je u mejlu."Ovi deepfake video snimci mogu se koristiti za bilo koji broj aplikacija. Na primjer, poznate osobe i slavne ličnosti na platformama društvenih medija kao što su LinkedIn i Facebook mogle bi davati izjave koje utiču na tržište i druge izuzetno uvjerljive objave."

Image
Image

Hakeri se, konkretno, okreću deepfakes-u jer i tehnologija i njene potencijalne žrtve postaju sve sofisticiranije.

"Mnogo je teže počiniti napad socijalnog inženjeringa putem dolazne e-pošte, pogotovo zato što se mete sve više obrazuju o phishingu kao prijetnji", rekao je Callan..

Platforme moraju suzbiti deepfakes, rekao je za Lifewire putem e-pošte Joseph Carson, glavni naučnik za sigurnost u firmi za sajber sigurnost Delinea. Predložio je da otpremanje na web stranice prođe kroz analitiku kako bi se utvrdila autentičnost sadržaja.

"Ako objava nije dala nikakav tip pouzdanog izvora ili konteksta, tada bi ispravno označavanje sadržaja trebalo da bude jasno gledaocu da je izvor sadržaja verificiran, da se još uvijek analizira ili da je sadržaj je značajno izmijenjen", dodao je Carson.

Duboki lažnjaci su važni po tome što efikasno eliminišu ono što se tradicionalno smatralo sigurnim metodom potvrđivanja identiteta.

Stručnjaci preporučuju korisnicima da budu oprezni kada kliknu na URL-ove ili odgovaraju na LinkedIn poruke. Imajte na umu da glas, pa čak i pokretne slike navodnih kolega mogu biti lažne, predložio je Callan. Pristupite ovim interakcijama sa istim nivoom skepticizma koji imate za komunikaciju zasnovanu na tekstu.

Međutim, ako ste zabrinuti da će se vaš identitet koristiti u dubokom lažiranju, Callan je rekao da ne postoji jednostavno rješenje.

"Najbolju zaštitu moraju postaviti oni koji razvijaju i upravljaju digitalnim komunikacijskim platformama koje koristite", dodao je Callan. "Sistem koji potvrđuje [identitete] učesnika koristeći neraskidive kriptografske tehnike može veoma efikasno da potkopa ovu vrstu rizika."

Preporučuje se: