Ikviens domā, ka var pamanīt dziļi viltotu videoklipu, taču strauji pilnveidojoties tehnoloģijai, tostarp mākslīgā intelekta rīkiem, viltus videoklipa pamanīšana ir grūtāka nekā jebkad agrāk.

Key Takeaways

  • Dziļās viltojumi rada ievērojamus draudus sabiedrībai, tostarp izplata dezinformāciju, grauj reputāciju, uzdodoties par citu personu, un izraisa konfliktu valsts drošības interesēs.
  • Lai gan AI tehnoloģija piedāvā rīkus dziļo viltojumu noteikšanai, tie nav perfekti, un cilvēka rīcības brīvība joprojām ir būtiska dziļo viltojumu identificēšanā.
  • Cilvēkiem un AI noteikšanas rīkiem ir dažādas stiprās un vājās puses dziļo viltojumu identificēšanā un viņu spēju apvienošana var uzlabot veiksmes rādītājus dziļās viltošanas briesmu atklāšanā un mazināšanā tehnoloģija.

Dziļi viltojumi apdraud visus sabiedrības aspektus. Mūsu spējai identificēt viltotu saturu ir izšķiroša nozīme, lai atceltu dezinformāciju, taču, pilnveidojoties AI tehnoloģijai, kam mēs varam uzticēties dziļo viltojumu atklāšanā: cilvēkam vai mašīnai?

instagram viewer

Deepfakes briesmas

AI tehnoloģijai attīstoties, dziļo viltojumu briesmas rada arvien lielākus draudus mums visiem. Šeit ir īss kopsavilkums par dažām aktuālākajām problēmām, ko rada dziļi viltojumi:

  • Dezinformācija: Viltoti videoklipi un balss ieraksti var izplatīt dezinformāciju, piemēram, viltus ziņas.
  • Uzdošanās par citu personu: Uzdodoties par personām, viltota viltošana var sabojāt cilvēku reputāciju vai maldināt ikvienu, ar kuru viņi pazīst.
  • Nacionālā drošība: Acīmredzamais pastardienas scenārijs ar dziļiem viltojumiem ir safabricēts kadrs vai audio ieraksts, kurā redzams globāls līderis, kurš izraisa konfliktu.
  • Pilsoniskie nemieri: Puses var izmantot arī maldinošus kadrus un audio, lai izraisītu dusmas un pilsoņu nemierus noteiktu grupu starpā.
  • Kiberdrošība: Kibernoziedznieki jau izmanto AI balss klonēšanas rīkus, lai mērķētu uz personām ar pārliecinošiem ziņojumiem no viņiem pazīstamiem cilvēkiem.
  • Privātums un piekrišana: Ļaunprātīga dziļu viltojumu izmantošana pielīdzina indivīdus bez viņu piekrišanas.
  • Uzticība un pārliecība: Ja jūs nevarat atšķirt patiesību no maldināšanas, precīza informācija kļūst tikpat neuzticama.

Dziļi viltojumi kļūs tikai pārliecinošāki, tāpēc mums ir nepieciešami stabili rīki un procesi to noteikšanai. AI nodrošina vienu šādu rīku dziļo viltojumu noteikšanas modeļu veidā. Tomēr patīk algoritmi, kas izstrādāti, lai identificētu AI ģenerētu rakstīšanu, dziļo viltojumu noteikšanas rīki nav ideāli.

Pašlaik cilvēka rīcības brīvība ir vienīgais instruments, uz kuru varam paļauties. Tātad, vai dziļo viltojumu identificēšanā mēs esam labāki par algoritmiem?

Vai algoritmi var atklāt viltojumus labāk nekā cilvēki?

Deepfake ir pietiekami nopietns drauds, tāpēc tehnoloģiju giganti un pētniecības grupas velta milzīgus resursus pētniecībai un attīstībai. 2019. gadā tādi uzņēmumi kā Meta, Microsoft un Amazon piedāvāja balvās 1 000 000 $. Dziļās viltojumu noteikšanas izaicinājums lai iegūtu visprecīzāko noteikšanas modeli.

Vislabākās veiktspējas modeļa precizitāte bija 82,56%, salīdzinot ar publiski pieejamo videoklipu datu kopu. Tomēr, kad tie paši modeļi tika pārbaudīti ar "melnās kastes datu kopu", kurā bija 10 000 neredzētu videoklipu, vislabākās veiktspējas modeļa precizitāte bija tikai 65,18%.

Mums ir arī daudz pētījumu, kas analizē AI dziļo viltojumu noteikšanas rīku veiktspēju pret cilvēkiem. Protams, rezultāti dažādos pētījumos atšķiras, taču parasti cilvēki ir vienādi vai labāki par dziļo viltojumu noteikšanas rīku panākumu līmeni.

Viens 2021. gada pētījums, kas publicēts PNAS atklāja, ka "parastie cilvēku novērotāji" sasniedza nedaudz augstāku precizitātes līmeni nekā vadošie dziļo viltojumu noteikšanas rīki. Tomēr pētījums arī atklāja, ka cilvēku dalībnieki un AI modeļi bija uzņēmīgi pret dažāda veida kļūdām.

Interesanti, ka pētījumi, ko veica Sidnejas Universitāte ir atklājis, ka cilvēka smadzenes neapzināti ir efektīvākas dziļu viltojumu pamanšanā nekā mūsu apzinātie centieni.

Vizuālu pavedienu noteikšana dziļajos viltojumos

Dziļās viltojumu noteikšanas zinātne ir sarežģīta, un nepieciešamā analīze atšķiras atkarībā no kadra veida. Piemēram, bēdīgi slavenais Ziemeļkorejas līdera Kima Čenuna video no 2020. gada būtībā ir runājošas galvas video. Šajā gadījumā visefektīvākā dziļo viltojumu noteikšanas metode varētu būt visēmu (mutes kustību) un fonēmu (fonētisko skaņu) analīze, lai noteiktu neatbilstības.

Cilvēku eksperti, nejauši skatītāji un algoritmi var veikt šāda veida analīzi, pat ja rezultāti atšķiras. The MIT definē astoņus jautājumus, lai palīdzētu identificēt dziļi viltotus videoklipus:

  • Pievērsiet uzmanību sejai. Augstākās klases DeepFake manipulācijas gandrīz vienmēr ir sejas pārvērtības.
  • Pievērsiet uzmanību vaigiem un pierei. Vai āda šķiet pārāk gluda vai pārāk grumbaina? Vai ādas vecums ir līdzīgs matu un acu vecumam? DeepFakes dažās dimensijās var neatbilst.
  • Pievērsiet uzmanību acīm un uzacīm. Vai ēnas parādās vietās, kuras jūs varētu sagaidīt? DeepFakes var pilnībā neatspoguļot ainas dabisko fiziku.
  • Pievērsiet uzmanību brillēm. Vai ir kāds atspīdums? Vai ir pārāk daudz atspīdumu? Vai atspīduma leņķis mainās, kad cilvēks kustas? Vēlreiz DeepFakes var pilnībā neatspoguļot apgaismojuma dabisko fiziku.
  • Pievērsiet uzmanību sejas matiem vai to trūkumam. Vai šie sejas mati izskatās īsti? DeepFakes var pievienot vai noņemt ūsas, apdegumus vai bārdu. Tomēr DeepFakes var neizdoties padarīt sejas apmatojuma pārvērtības pilnīgi dabiskas.
  • Pievērsiet uzmanību sejas dzimumzīmēm. Vai kurmis izskatās īsts?
  • Pievērsiet uzmanību mirkšķināšanai. Vai cilvēks mirkšķina pietiekami daudz vai pārāk daudz?
  • Pievērsiet uzmanību lūpu kustībām. Dažu dziļo viltojumu pamatā ir lūpu sinhronizācija. Vai lūpu kustības izskatās dabiski?

Jaunākie AI dziļo viltojumu noteikšanas rīki atkal var analizēt tos pašus faktorus ar dažādu panākumu pakāpi. Datu zinātnieki pastāvīgi izstrādā arī jaunas metodes, piemēram, dabiskās asins plūsmas noteikšanu ekrāna skaļruņu sejās. Jaunas pieejas un esošo uzlabojumu rezultātā AI dziļo viltojumu noteikšanas rīki nākotnē konsekventi pārsniegs cilvēku veiktspēju.

Audio pavedienu noteikšana dziļajos viltojumos

Dziļās viltus skaņas noteikšana ir pavisam cits izaicinājums. Bez video vizuālajām norādēm un iespējas noteikt audiovizuālās neatbilstības, deepfake noteikšana lielā mērā ir atkarīga no audio analīzes (dažās var palīdzēt arī citas metodes, piemēram, metadatu pārbaude gadījumi).

Pētījums, ko publicēja Londonas Universitātes koledža 2023. gadā tika atklāts, ka cilvēki 73% gadījumu var atklāt viltotu runu (angļu un mandarīnu valodā). Tāpat kā dziļi viltotos videoklipos, cilvēku klausītāji bieži intuitīvi atklāj nedabiskus runas modeļus AI ģenerētajā runā, pat ja viņi nevar norādīt, kas šķiet neatbilstošs.

Kopējās pazīmes ietver:

  • Smukšana
  • Izteiksmes trūkums
  • Fona vai traucējumu troksnis
  • Vokālās vai runas nekonsekvence
  • "Pilnuma" trūkums balsīs
  • Pārāk skripta piegāde
  • Nepilnību trūkums (viltus starti, labojumi, rīkles tīrīšana utt.)

Atkal, algoritmi var arī analizēt runu tiem pašiem dziļajiem viltus signāliem, taču jaunas metodes padara rīkus efektīvākus. Pētījumu veica USENIX identificēja AI balss trakta rekonstrukcijas modeļus, kas nespēj līdzināties dabiskajai runai. Tajā ir apkopots, ka mākslīgā intelekta balss ģeneratori rada audio, kas atbilst šauriem balss ceļiem (aptuveni dzeramā salmiņa lielumā) bez cilvēka runas dabiskām kustībām.

Iepriekšējie pētījumi no Horsta Gērca institūts analizēja autentisku un dziļu viltojumu audio angļu un japāņu valodā, atklājot smalkas atšķirības patiesas runas un dziļo viltojumu augstākajās frekvencēs.

Gan balss trakta, gan augstfrekvences neatbilstības ir uztveramas cilvēku klausītājiem un AI noteikšanas modeļiem. Augstas frekvences atšķirību gadījumā AI modeļi teorētiski varētu kļūt arvien precīzāki, lai gan to pašu varētu teikt arī par AI dziļajiem viltojumiem.

Cilvēkus un algoritmus apmāna dziļi viltojumi, taču dažādos veidos

Pētījumi liecina, ka cilvēki un jaunākie AI noteikšanas rīki līdzīgi spēj identificēt dziļos viltojumus. Veiksmes rādītāji var svārstīties no 50% līdz 90+%, atkarībā no testa parametriem.

Turklāt cilvēkus un mašīnas līdzīgā mērā apmāna dziļi viltojumi. Tomēr ļoti svarīgi ir tas, ka mēs esam uzņēmīgi dažādos veidos, un tas varētu būt mūsu lielākais ieguvums, cenšoties novērst dziļās viltošanas tehnoloģijas radītās briesmas. Apvienojot cilvēku stiprās puses un dziļo viltojumu noteikšanas rīkus, tiks mazinātas katra vājās puses un uzlaboti panākumu rādītāji.

Piemēram, MIT Pētījumi atklāja, ka cilvēki spēj labāk identificēt pasaules līderu un slavenu cilvēku viltojumus nekā AI modeļi. Tas arī atklāja, ka mākslīgā intelekta modeļi cīnījās ar uzņemtajiem materiāliem ar vairākiem cilvēkiem, lai gan tas liecina, ka to varētu izraisīt algoritmi, kas tiek apmācīti, izmantojot kadrus, kuros ir atsevišķi skaļruņi.

Un otrādi, tajā pašā pētījumā tika atklāts, ka mākslīgā intelekta modeļi pārspēja cilvēkus ar zemas kvalitātes kadriem (izplūdušiem, graudainiem, tumšiem utt.), kurus varētu apzināti izmantot, lai maldinātu cilvēkus. Tāpat jaunākās AI noteikšanas metodes, piemēram, asins plūsmas uzraudzība konkrētos sejas reģionos, ietver analīzi, ko cilvēki nespēj veikt.

Attīstoties arvien vairāk metožu, AI spēja noteikt pazīmes, kuras mēs nevaram, uzlabosies, bet uzlabosies arī tās spēja maldināt. Lielais jautājums ir par to, vai dziļo viltojumu noteikšanas tehnoloģija turpinās apsteigt pašus dziļos viltojumus.

Deepfakes laikmetā redzēt lietas savādāk

AI dziļo viltojumu noteikšanas rīki turpinās uzlaboties, kā arī paša dziļā viltojumu satura kvalitāte. Ja mākslīgā intelekta spēja maldināt pārspēj tās spēju atklāt (kā tas ir ar AI ģenerētu tekstu), cilvēka rīcības brīvība var būt vienīgais rīks, kas mums atliek, lai cīnītos pret dziļajiem viltojumiem.

Ikviens ir atbildīgs par to, lai uzzinātu dziļo viltojumu pazīmes un kā tās pamanīt. Papildus aizsardzībai pret krāpniecību un drošības apdraudējumiem viss, ko mēs apspriežam un kopīgojam tiešsaistē, ir neaizsargāti pret dezinformāciju, ja zaudējam izpratni par realitāti.