Mākslīgais intelekts un mašīnmācīšanās var radīt brīnumus, sākot no mākslas veidošanas līdz administratora darbu automatizēšanai. Taču tie ir arī risks, jo var dot spēku sliktiem aktieriem ar tādiem trikiem kā deepfake.
Attīstoties šai konkrētajai tehnoloģijai, ir lietderīgi uzzināt, kā patiesībā darbojas dziļi viltojumi un kurš tos pat vēlas izmantot — gan likumīgi, gan nelegāli.
Kāpēc ir svarīgi saprast, kā un kāpēc tiek izmantoti dziļi viltojumi
Dziļās viltošanas tehnoloģijas galvenie pielietojumi galvenokārt ir saistīti ar smieklīgiem, pornogrāfiskiem vai kinematogrāfiskiem materiāliem, taču pētījums pierādīja, ka dziļi viltojumi var maldināt sejas atpazīšanu. Tas vien ir iemesls uztraukties un rūpēties.
Jo vairāk tehnoloģija tiek izmantota ikdienas dzīvē un liela mēroga projektos, jo labāk tās izstrādātāji iemācās izveidot nevainojamus viltus videoklipus ar cilvēkiem, neatkarīgi no tā, vai tie ir slavenības vai ģimenes locekļi.
Saprašana kā pasargāt sevi no deepfake video Tagad tas ir obligāts, ņemot vērā to, cik dedzīgi nozares izmanto tehnoloģiju priekšrocības, īpaši izklaides jomā.
Holivuda to izmantoja vairākos projektos ilgi pirms tam Metaphysic dziļi viltots AGT ieraksts, kas pasaulei parādīja, cik ātra un efektīva var būt deepfake izveide. Lūk, ko process ietver.
Kā darbojas Deepfakes?
Runājot par to, kas slēpjas aiz dziļajiem viltojumiem, nosaukumā ir pavediens: dziļa mācīšanās, mākslīgo neironu tīklu (ANN) zinātne. Tas, ko tie dara dziļi viltotiem algoritmiem, ir absorbē datus, mācās no tiem un veido jaunus datus sejas izteiksmes vai visas sejas veidā, kas uzklāta uz jūsu.
Deepfake programmatūras izstrādātāji parasti izmanto vienu no diviem ANN veidiem: automātiskos kodētājus vai ģeneratīvos pretrunīgos tīklus (GAN).
Automātiskie kodētāji iemācās replicēt ievadīto datu masu, galvenokārt seju un izteiksmju fotoattēlus, un atkārtoti izveidot pieprasītās datu kopas. Tomēr tās reti ir precīzas kopijas.
Savukārt GAN ir viedāka sistēma, kas ietver ģeneratoru un diskriminatoru. Pirmais reproducē iegūtos datus dziļos viltojumos, kas pēc tam maldina otro.
Diskriminators salīdzina ģeneratora darbus ar reāliem attēliem un nosaka to efektivitāti. Labākie viltotie viltojumi, protams, ir tie, kas lieliski atdarina cilvēka uzvedību.
Tātad, kā ar šo tehnoloģiju tiek izgatavoti dziļi viltojumi? Tādu lietotņu algoritmi kā Reface un DeepFaceLab nepārtraukti mācās no datiem, kas tajās tiek pārsūtīti, lai viņi varētu efektīvi pielāgot sejas vaibstus un izteiksmes vai kārtot vienu seju pār otru.
Programmatūra būtībā ir video redaktors, kas īpaši izstrādāts, lai manipulētu ar sejām. Dažas lietotnes ir sarežģītākas nekā citas, taču jūs varat darīt visu, sākot no kādas personas novecošanas līdz pat rediģēšanai filmās.
Bet tehnoloģijai joprojām ir trūkumi. Deepfake izveide var būt sarežģītāka nekā kā tiek veidoti viltus tiešraides video, taču to var atklāt tikpat vienkārši kā nepatiesu.
Kā pamanīt dziļo viltojumu
Tā kā dziļos viltojumus galvenokārt izgatavo mašīnas, digitālās sejas vaibsti vai manieres ne vienmēr izskatās dabiski. Kļūdas var būt arī videoklipa iestatījumos. Citiem vārdiem sakot, jūs varat pateikt viltotus kadrus, ja zināt, ko meklēt.
Šeit ir dažas brīdinājuma zīmes:
- Nedabiska mirgošana: Mašīnmācīšanās bieži neievēro acu mirkšķināšanu vai liek tai izskatīties neveikli.
- Izplūdušas vai nestabilas funkcijas: kāda cilvēka mati, mute vai zods var būt nedaudz izplūduši vai kustēties dīvaini, bieži vien pārspīlēti.
- Emociju trūkums vai nepareizs attēlojums: Vāji dziļi viltojumi ir bezkaislīgi vai slikti atdarina emocijas.
- Neveikla ķermeņa valoda: ja videoklipā redzamā persona izkropļoti vai nesadalīti kustina galvu vai ķermeni, tas var būt viltojums.
- Nepareizas krāsas un apgaismojums: Krāsas izmaiņas, neizskaidrojamas gaismas un ēnas ir drošas viltus video pazīmes.
- Nekonsekventi objekti: pielāgojot videoklipu, dziļi viltota programmatūra var kļūdīties, piemēram, mainīt apģērbu, rotaslietu un fona priekšmetu formu.
- Slikts audio: Deepfakes var kropļot runu un skaņas videoklipā.
Izmantojiet visas iespējas veidi, kā atklāt dziļus viltojumus uzzinot, kādam nolūkam parasti tiek veidoti šādi videoklipi, un pievēršot īpašu uzmanību tiešsaistē redzamā materiāla detaļām — palēniniet to, ja iespējams.
Turklāt tiek izstrādāti arvien vairāk rīku, piemēram Microsoft autentifikators un Sensity's Kriminālistikas dziļo viltojumu noteikšana, kas analizē videoklipus minūtes līmenī.
Kas izmanto Deepfakes?
Filmu veidotāji arvien vairāk izmanto dziļus viltojumus, lai novecotu vai aizstātu aktieru sejas, kā tas ir Zvaigžņu karos. Māksliniekiem izdodas animēt portretus un likt tiem runāt un dziedāt.
Mārketinga speciālisti eksperimentē ar deepfake tehnoloģiju reklāmas saturam, kam nav jāpieņem darbā aktieri. Uzņēmumi, piemēram, WPP, to izmanto arī savos mācību videoklipos.
Tehniķi parasti veido smieklīgus videoklipus, kuros viņi apmaina sejas ar draugiem vai populārās filmās noliek vienu aktieri pār otru. Silvestrs Stallone ir pārņēmis Home Alone, un Hīta Ledžera Džokers parādījās filmā A Knight's Tale.
Diemžēl, izpētot, kam vēl tiek izmantota dziļās viltošanas tehnoloģija, jūs atradīsiet daudz ļaunprātīgu gadījumu. Deepfake veidotājiem patīk izplatīt dezinformāciju un aizvainojošus ziņojumus, kā arī mērķēt uz slavenībām un ievietot tās pieaugušajiem paredzētajās filmās. Cilvēki pat tiek šantažēti ar viltus kadriem.
Pašreizējā neierobežotajā formā deepfake ir sinonīms riskam cilvēku privātuma tiesībām, drošībai, un pat autortiesības, piemēram, ja algoritms nepārprotami izmanto fotoattēlu vai mākslas darbu, kas nav publiski pieejams pieejams.
Tāpēc valstis un zīmoli pieliek kāju. Saskaņā ar 2021. gadu Kiberpilsoņu tiesību iniciatīvas karte Saskaņā ar ASV likumu par viltotu viltojumu četri štati tagad ierobežo publicētos dziļi viltotos videoklipus, kuros kāds attēlots nepārprotamā vai citādi kaitīgā veidā.
Ķīna arī veic pasākumus, lai kriminalizētu viltojumus, kas kaitē cilvēkiem un sabiedrībai, pārkāpjot personas tiesības vai izplatot viltus ziņas. Pat Meta paziņoja 2020. gadā, ka maldinoši, manipulēti videoklipi nebija vēlami.
Papildus regulējumam oficiālās iestādes visā pasaulē cenšas labāk atklāt un novērst viltotus noziegumus. The Rathenau Instituut ziņojums Par to, kā Eiropas politikai būtu jārīkojas ar dziļo viltojumu, tiek atbalstīta programmatūra ar tādiem rīkiem kā skaļruņu un sejas atpazīšana, balss dzīvīguma noteikšana un sejas iezīmju analīze.
Uzziniet, kā Deepfakes darbojas, lai jūs maldinātu
Deepfakes jau ir kļuvušas plaši pazīstamas gan labā, gan sliktākā virzienā. Tāpēc izbaudiet smieklīgos un iedvesmojošos videoklipus, gatavojoties cīnīties pret ļaunprātīgiem.
Galu galā, kas ir tāds dziļš viltojums kā šis, bet rīks, kas paredzēts, lai jūs apmānītu? Ja zināt, ko meklēt un kā reaģēt, tam ir mazāka vara pār jums.
Piemēram, jūs varēsit pamanīt dziļos viltojumus sociālajos medijos līdzās viltus ziņām un kontiem un izvairīties no dezinformācijas, pikšķerēšanas mēģinājumiem un daudz ko citu. Tā kā dziļās viltojumu noteikšanas un novēršanas tehnoloģija uzlabosies, jūs saņemsit lielāku atbalstu.