Deepfake tehnoloģiju var būt jautri spēlēties, taču tās potenciāls kaitēt ir ievērojams. Lūk, ko varētu sniegt dziļo viltojumu nākotne.
Agrāk bija viegli pamanīt dziļi viltota attēla pazīmes, taču ģeneratīvais AI liek mums apšaubīt gandrīz visu, ko mēs tagad redzam un dzirdam. Ar katru jauno mākslīgā intelekta modeli, kas tiek izlaists, viltota attēla pazīmes mazinās, un, lai palielinātu apjukums, tagad varat izveidot viltotus videoklipus, savu mīļoto balss klonus un izdomāt viltotus rakstus sekundes.
Lai izvairītos no AI dziļo viltojumu apmānīšanas, ir vērts zināt, kādas briesmas tie rada.
Dziļo viltojumu evolūcija
Deepfake parāda, ka cilvēks dara kaut ko, kas nekad nav noticis reālajā dzīvē. Tas ir pilnīgi viltots. Mēs smejamies par dziļajiem viltojumiem, kad tie tiek izplatīti internetā kā mēmi vai joks, taču tikai nedaudziem cilvēkiem šķiet smieklīgi, ja tie tiek izmantoti, lai mūs maldinātu.
Agrāk dziļi viltojumi tika izveidoti, uzņemot esošu fotoattēlu un mainot to attēlu rediģēšanas programmatūrā, piemēram, Photoshop. Bet AI dziļo viltojumu atšķir tas, ka to var ģenerēt no nulles, izmantojot dziļās mācīšanās algoritmus.
The Merriam-Webster vārdnīca definē dziļo viltojumu kā:
Attēls vai ieraksts, kas ir pārliecinoši mainīts un manipulēts, lai maldinātu kādu, kas dara vai saka kaut ko tādu, kas patiesībā nav izdarīts vai pateikts.
Taču līdz ar mākslīgā intelekta tehnoloģiju attīstību šī definīcija sāk izskatīties novecojusi. Izmantojot AI rīkus, dziļi viltojumi tagad ietver attēlus, tekstu, videoklipus un balss klonēšanu. Dažreiz tiek izmantoti visi četri AI ģenerēšanas režīmi vienlaikus.
Tā kā tas ir automatizēts process, kas ir neticami ātri un lēti lietojams, tas ir ideāls rīks dziļi viltojumi tādā ātrumā, kādu mēs vēl nekad neesam redzējuši — viss bez nepieciešamības zināt, kā rediģēt fotoattēlus, videoklipus vai audio.
AI dziļo viltojumu lielās briesmas
Uzņēmēja AI video ģeneratori jau pastāv, kā arī daudzām AI balss ģeneratori. Iemet a liels valodas modelis, piemēram, GPT-4 un jums ir recepte visticamāko dziļo viltojumu radīšanai, ko līdz šim esam redzējuši mūsdienu vēsturē.
Apzinoties dažādus mākslīgā intelekta viltojumu veidus un to, kā tos var izmantot, lai jūs apmānītu, ir viens no veidiem, kā izvairīties no maldināšanas. Šeit ir tikai daži nopietni piemēri tam, kā AI dziļās viltošanas tehnoloģija rada reālus draudus.
1. AI identitātes zādzība
Jūs, iespējams, esat tos redzējuši. Viens no pirmajiem patiesi vīrusu izraisītajiem mākslīgā intelekta viltojumiem, kas izplatījās visā pasaulē, bija attēls, kurā redzams Donalds Tramps, kas tiek arestēts, un viens pāvests Francisks baltā jakā.
Lai gan šķiet, ka ir nevainīgi pārdomāts, ko slavena reliģiska figūra varētu uzvilkt vēsā dienā Romā; otram attēlam, kurā redzama politiska figūra nopietnā situācijā ar likumu, ir daudz lielākas sekas, ja to uztver kā reālu.
Līdz šim cilvēki, veidojot mākslīgā intelekta viltojumus, galvenokārt ir mērķējuši uz slavenībām, politiskiem darbiniekiem un citām slavenām personām. Daļēji tas ir tāpēc, ka slaveniem cilvēkiem internetā ir daudz fotoattēlu ar viņiem, kas, visticamāk, palīdzēja apmācīt modeli.
AI attēlu ģeneratora, piemēram, Midjourney, gadījumā, ko izmanto gan Trampa, gan pāvesta viltojumos, lietotājam vienkārši jāievada teksts, aprakstot to, ko viņš vēlas redzēt. Atslēgvārdus var izmantot, lai norādītu mākslas stilu, piemēram, fotogrāfiju vai fotoreālismu, un rezultātus var precīzi noregulēt, palielinot izšķirtspēju.
Jūs varat tikpat viegli iemācieties lietot Midjourney un pārbaudiet to pats, taču acīmredzamu morālu un juridisku iemeslu dēļ jums vajadzētu izvairīties no šo attēlu publicēšanas.
Diemžēl tas, ka esat vidusmēra, nepazīstams cilvēks, negarantē, ka esat pasargāts arī no mākslīgā intelekta viltojumiem.
Problēma ir saistīta ar galveno funkciju, ko piedāvā AI attēlu ģeneratori: iespēja augšupielādēt savu attēlu un manipulēt ar to, izmantojot AI. Un tāds rīks kā Izkrāsošana DALL-E 2 var paplašināt esošo attēlu ārpus tā robežām, ievadot teksta uzvedni un aprakstot, ko vēl vēlaties ģenerēt.
Ja kāds cits to darītu ar jūsu fotogrāfijām, briesmas varētu būt ievērojami lielākas nekā pāvesta viltojums baltā jakā — viņi to var izmantot jebkur, izliekoties par jums. Lai gan lielākā daļa cilvēku parasti izmanto AI ar labiem nodomiem, ir ļoti maz ierobežojumu, kas neļauj cilvēkiem to izmantot, lai radītu kaitējumu, īpaši identitātes zādzības gadījumos.
2. Deepfake balss klonu izkrāpšana
Ar mākslīgā intelekta palīdzību dziļi viltojumi ir šķērsojuši robežu, kam vairums no mums nebija gatavi: viltoti balss kloni. Izmantojot tikai nelielu daudzumu oriģinālā audio — iespējams, no TikTok videoklipa, kuru reiz ievietojāt, vai YouTube videoklipa, kurā esat redzams, AI modelis var atkārtot jūsu vienīgo balsi.
Ir gan neparasti, gan biedējoši iedomāties, ka saņemam tālruņa zvanu, kas izklausās gluži kā ģimenes loceklis, draugs vai kolēģis. Dziļi viltoti balss kloni rada pietiekami nopietnas bažas, ka Federālā tirdzniecības komisija (FTC) par to ir izteicis brīdinājumu.
Neticiet balsij. Zvaniet personai, kura it kā ar jums sazinājās, un pārbaudiet stāstu. Izmantojiet tālruņa numuru, par kuru zināt, ka tas ir viņu. Ja nevarat sazināties ar savu mīļoto, mēģiniet sazināties ar viņu, izmantojot citu ģimenes locekli vai viņa draugus.
Par to ziņoja Washington Post gadījums, kad pāris ap 70 gadiem saņēma telefona zvanu no kāda, kurš izklausījās gluži kā viņu mazdēls. Viņš atradās cietumā, un viņam steidzami bija vajadzīga nauda drošības naudai. Tā kā nebija cita iemesla šaubīties, ar ko viņi runā, viņi devās uz priekšu un nodeva naudu krāpniekam.
Risks ir ne tikai vecākā paaudze, Par to ziņoja The Guardian vēl viens bankas menedžera piemērs, kurš apstiprināja 35 miljonu dolāru darījumu pēc virknes "dziļi viltotu zvanu" no kāda, viņuprāt, bankas direktora.
3. Masveidā ražotas viltus ziņas
Lielo valodu modeļi, piemēram ChatGPT ļoti, ļoti labi spēj radīt tekstu, kas izklausās gluži kā cilvēks, un pašlaik mums nav efektīvu rīku, lai pamanītu atšķirību. Nepareizās rokās viltus ziņas un sazvērestības teorijas būs lēti ražot un prasīs ilgāku laiku, lai to atmaskotu.
Dezinformācijas izplatīšana, protams, nav nekas jauns, bet gan pētniecības darbs publicēts arXiv 2023. gada janvārī skaidro, ka problēma ir saistīta ar to, cik viegli ir palielināt izlaidi, izmantojot AI rīkus. Viņi to dēvē par "AI radītām ietekmes kampaņām", kuras, viņuprāt, varētu izmantot, piemēram, politiķi, lai izmantotu ārpakalpojumus savām politiskajām kampaņām.
Apvienojot vairāk nekā vienu AI ģenerētu avotu, tiek izveidots augsta līmeņa dziļais viltojums. Piemēram, mākslīgā intelekta modelis var ģenerēt labi uzrakstītu un pārliecinošu ziņu stāstu līdzās viltotam Donalda Trampa arestēšanas attēlam. Tas piešķir tam lielāku leģitimitāti nekā tad, ja attēls tiktu kopīgots atsevišķi.
Viltus ziņas neaprobežojas tikai ar attēliem un rakstīšanu, jo AI video ģenerēšanas attīstība nozīmē, ka arvien vairāk parādās dziļi viltotu video. Šeit ir viens no Robert Downey Jr., kas uzpotēts Elona Maska videoklipam, ko ievietojis YouTube kanāls Deepfakery.
Deepfake izveide var būt tikpat vienkārša kā lietotnes lejupielāde. Varat izmantot tādu lietotni kā TokkingHeads, lai nekustīgos attēlus pārvērstu animētos iemiesojumos, kas ļauj augšupielādēt savu attēlu un audio, lai liktu, ka persona runā.
Lielākoties tas ir izklaidējoši un jautri, taču pastāv arī nepatikšanas. Tas parāda, cik viegli ir izmantot jebkura cilvēka tēlu, lai radītu iespaidu, ka šī persona ir izrunājusi vārdus, kurus viņš nekad nav runājis.
Neļaujiet sevi apmānīt ar mākslīgā intelekta viltojumu
Deepfakes var ātri izvietot par ļoti zemām izmaksām un ar zemu zināšanu līmeni vai skaitļošanas jaudu. Tie var būt ģenerēta attēla, balss klona vai mākslīgā intelekta ģenerētu attēlu, audio un teksta kombinācijas formā.
Agrāk dziļo viltojumu izveidošana bija daudz grūtāka un darbietilpīgāka, taču tagad, pateicoties daudzām AI lietotnēm, gandrīz ikvienam ir pieejami rīki, kas tiek izmantoti dziļo viltojumu izveidei. Tā kā mākslīgā intelekta dziļās viltošanas tehnoloģija kļūst arvien progresīvāka, ir vērts rūpīgi sekot līdzi tās radītajām briesmām.