Nesen Reddit atkal ir izveidojis ziņas ar subreddit, kurā cilvēki izmanto mašīnu mācību rīku, kas saucas "Deep Fake", lai automātiski aizstātu vienas personas seju ar citu video. Acīmredzot, tā kā tas ir internets, cilvēki to izmanto divām lietām: viltus slavenību pornogrāfiju un Nicolas Cage ievietošanu izlases filmās.
Kaut arī kādas personas seju maiņa kādā fotogrāfijā vienmēr bijusi samērā vienkārša, videoklipā kāda video seja bija laikietilpīga un grūta. Līdz šim lielāko budžeta Holivudas filmu VFX studijas to galvenokārt darīja, kur aktiera seja tika mainīta uz viņu triku. Bet tagad, izmantojot Deep Fake, ikviens ar datoru var to izdarīt ātri un automātiski.
Pirms doties tālāk, jums jāzina, kas izskatās kā Deep Fake. Apskatiet SFW video, zem kura ir dažādu slavenību seju mijmaiņas darījumu apkopojums, kas galvenokārt ietver Nica Cage.
Deep Fake programmatūra darbojas, izmantojot mašīnu apguvi. Tas vispirms ir apmācīts ar mērķa seju. Izmantojot algoritmu, tiek izkropļoti mērķa attēli, un tas iemācās, kā tos labot, lai tie būtu līdzīgi nemainīgai mērķa sejai. Kad algoritms tiek izvadīts no citas personas attēlus, tiek pieņemts, ka tie ir izkropļoti mērķa attēli un mēģina to izlabot. Lai iegūtu video, programma Deep Fake darbojas katram rāmim atsevišķi.
Iemesls tam, ka Deep Fakes lielākoties ir tikai iesaistītie dalībnieki, ir tāds, ka no dažādiem leņķiem ir daudz materiālu, kas padara mācības efektīvāku (Nicolas Cage ir 91 darbojas kredītus IMDB). Tomēr, ņemot vērā to, ka fotogrāfijas un video, ko cilvēki ievieto tiešsaistē, un, ka algoritms ir jāapgūst tikai apmēram 500 attēlu, nav iemesla, lai arī parastos cilvēkus nevarētu mērķēt, lai gan, iespējams, ar mazliet mazāku panākumu.
Tieši tagad, Deep Fakes ir diezgan viegli pamanāmi, bet kļūst grūtāk, jo tehnoloģija kļūst labāka. Šeit ir daži no dāvanām.
Dīvaini skatoties sejas Daudzās Deep Fakes sejas izskatās dīvaini. Funkcijas neatrodas perfekti, un viss šķiet tikai nedaudz vasksveida, kā attēlā zemāk. Ja viss pārējais izskatās normāli, bet seja šķiet dīvaina, tas droši vien ir Deep Fake.
Mirgošana. Slikta Deep Fake videoklipu kopīga iezīme ir mirgojoša seja, un dažreiz tiek rādīti sākotnējie elementi. Tas parasti ir vairāk acīmredzams sejas malās vai kad kaut kas iet priekšā. Ja notiek dīvaini mirdzoši, jūs skatāties par Deep Fake.
Dažādas iestādes. Deep Fakes ir tikai seju mijmaiņas darījumi. Lielākā daļa cilvēku mēģina iegūt labu ķermeņa spēli, taču tas ne vienmēr ir iespējams. Ja šī persona, šķiet, ir ievērojami smagāka, gaišāka, garāka, īsāka vai arī ir tetovējums, kuru viņiem reālajā dzīvē nav (vai viņiem nav tattoo, kas viņiem ir reālajā dzīvē), ir lielas izredzes, ka tā ir viltota. Zemāk redzat patiešām acīmredzamu piemēru, kur Patrick Stewart seja ir nomainīta ar J.K. Simmons filmā Whiplash. Simmons ir ievērojami mazāks nekā Stewart, tāpēc tas izskatās dīvaini.
Īsi klipi. Tieši tagad, pat tad, ja Deep Fake programmatūra darbojas perfekti un rada gandrīz nenošķirtu seju mijmaiņas darījumu, tas to var izdarīt tikai īsu laiku. Pirms pārāk ilga laika sāksies viena no iepriekš minētajām problēmām. Tāpēc lielākā daļa no Deep Fake klipiem, kuru kopīgošana notiek cilvēkiem, ir tikai pāris sekundes ilgi, pārējā materiāla daļa nav izmantojama. Ja jūs redzat ļoti īsu slavenības klipu, kas kaut ko dara, un nav pamatota iemesla, tas ir tik īss, tas ir pavediens, ka tas ir Deep Fake.
Nav skaņas vai sliktas lūpu sinhronizācijas. Deep Fake programmatūra pielāgo sejas funkcijas; tas nav maģiski padarīt vienu personu skaņu kā citu. Ja ar klipu nav skaņas, un nav iemesla, lai tie nebūtu skaņas, tas ir vēl viens pavediens, kuru jūs meklējat pie Deep Fake. Tāpat, pat ja ir skaņa, ja izrunātie vārdi pareizi nesakrīt ar kustīgām lūpām (vai lūpas izskatās dīvaini, kamēr persona runā tāpat kā klipā zemāk), jums var būt Deep Fake.
Neticami klipi. Šis viens veids ir pats par sevi saprotams, bet, ja jūs esat parādījis patiesi neticamu klipu, ir labas izredzes, ka jums to nevajadzētu ticēt. Nicolas Cage nekad nav iezīmējis Loki Marvel filmā. Tomēr tas būtu jauks.
Apšaubāmi avoti. Tāpat kā ar viltus fotoattēliem, no kuriem šķietami nāk no videoklipa, bieži vien ir liels pavērsiens tā autentiskuma ziņā. Ja New York Times sāks stāstīt par to, tas ir daudz ticamāk, ka kaut kas jums atklājas nejauši Reddit stūrī.
Pašlaik Deep Fakes vairāk ir šausminošas ziņkārības nekā liela problēma. Rezultāti ir viegli pamanāmi, un, lai gan nav iespējams apgalvot, kas tiek darīts, neviens nevēlas dzēst Deep Fakes kā patiesus videoklipus.
Tā kā tehnoloģija kļūst labāka, tomēr tie, visticamāk, būs daudz lielāka problēma. Piemēram, pārliecinoši viltus Kim Jong Un videomateriālu, kurā pasludināts karš pret ASV, varētu izraisīt lielu paniku.