Alexina sposobnost da oponaša mrtve rođake možda je najjezivija stvar ikad

Sadržaj:

Alexina sposobnost da oponaša mrtve rođake možda je najjezivija stvar ikad
Alexina sposobnost da oponaša mrtve rođake možda je najjezivija stvar ikad
Anonim

Key Takeaways

  • Amazonov Alexa glasovni asistent može kopirati glas sa samo jednom minutom zvuka.
  • Možete zamoliti Alexu da pročita priču glasom mrtvog roditelja.
  • Ista je ideja kao duboki lažnjaci, samo se koriste za moć dobra.
Image
Image

Amazon Alexa-in najnoviji trik je naučiti oponašati glas mrtve voljene osobe, tako da mogu razgovarati s vama iz groba.

Alexa treba samo minut izgovorenog zvuka da uvjerljivo oponaša glas. Amazon to naplaćuje kao utješnu funkciju koja vas može dovesti u kontakt sa voljenima, ali može biti i prilično jezivo iskustvo. I pokazuje koliko je lako napraviti dubok lažni zvuk koji je dovoljno dobar da nas prevari, čak i kada je glas onaj koji dobro poznajemo.

"Amazon je definitivno ušao na prilično jedinstven i bizaran teritorij sa svojom najavom da će Alexa uskoro moći naučiti, a zatim i koristiti glas mrtvih rođaka," rekao je Bill Mann, stručnjak za privatnost u Restore Privacy Lifewire putem e-pošte. "Za neke ljude, to uopće nije jezivo. U stvari, može biti prilično dirljivo."

Duh u mašini

Kao dio svoje godišnje re:MARS konferencije, Amazon prikazuje ovu funkciju u kratkom videu. U njemu klinac pita Aleksu da li baka može da nastavi da mu čita "Čarobnjaka iz Oza", omiljeno delo u javnom domenu svakog deteta. I to je prilično dirljiv trenutak. Teško je ne osjetiti ljudske emocije kada baka počne čitati.

"Ljudi se bore sa smrtnošću, posebno u zapadnoj kulturi. Vekovima smo pokušavali da pronađemo načine da obilježimo mrtve, od posmrtnih maski, preko pramenova kose, do starih fotografija, do gledanja starih filmova", Andrew Selepak, profesor društvenih medija na Univerzitetu Florida, rekao je za Lifewire putem e-pošte. "Deepfakes koriste najnoviju tehnologiju da kreiraju novu posmrtnu masku preminule voljene osobe. Ali, ovisno o nečijoj perspektivi, da li je to jezivo ili način da obilježite i držite nekoga koga volite nakon što umre?"

Ali memento mori može biti i utješan i jeziv. Prijatelj člana porodice je mrtav, ali ga i dalje možete čuti kako govore. Ne pomaže to što Alexa ima istoriju neobičnog, a ponekad i zastrašujućeg ponašanja. Godine 2018, dok je kolumnista NYT mišljenja Farhad Manjoo ulazio u krevet, njegov Amazon Echo je "počeo da zavija, poput djeteta koje vrišti u snu iz horor filma."

Ubrzo nakon toga, Amazon je priznao da se Alexa ponekad glasno smijala, što je, zajedno sa tinejdžerima i podrumima, horor film 101.

Može se samo zapitati kako biste se mogli osjećati da Alexa izvodi iste trikove u bakinom glasu.

Deep Fake

Očigledna lakoća s kojom Alexa uči oponašati glas vodi nas do još zlobnijih upotreba kloniranja glasa: dubokih lažnjaka.

Image
Image

"Deepfake audio nije nov, čak i ako je malo shvaćen i malo poznat. Tehnologija je godinama dostupna za rekreaciju glasa pojedinca uz pomoć umjetne inteligencije i dubokog učenja koristeći relativno malo stvarnog zvuka od osobe, " kaže Selepak. "Takva tehnologija bi također mogla biti opasna i destruktivna. Uznemireni pojedinac bi mogao rekreirati glas mrtvog bivšeg dečka ili djevojke i koristiti novi zvuk da kaže mrske i štetne stvari."

To je samo u kontekstu Alexa. Duboki lažni zvuk mogao bi ići daleko dalje od toga, uvjeravajući ljude da istaknuti političari vjeruju u stvari u koje ne vjeruju, na primjer. Ali s druge strane, što se više budemo navikavali na ove duboke lažnjake - možda u obliku ovih Alexa glasova - bićemo skeptičniji prema podlijim lažnjacima. A opet, s obzirom na to koliko je lako širiti laži na Facebooku, možda i ne.

Amazon nije rekao da li ova funkcija dolazi u Alexa ili je to samo tehnološki demo. Nekako se nadam da jeste. Tehnologija je u svom najboljem izdanju kada se koristi na ovakav humanistički način, a iako je laka reakcija nazvati je jezivom, kako kaže Selepak, ona se zapravo i ne razlikuje mnogo od gledanja starih videa ili slušanja sačuvanih govornih poruka, kao lik u lijeno skriptiranoj TV emisiji.

A ako je tehnologija za duboke lažnjake lako dostupna, zašto je ne bismo iskoristili da se utješimo?

Preporučuje se: