Viltus ziņas, dziļi viltojumi, maldinoši attēli: to visu var izveidot, izmantojot mākslīgo intelektu. Lūk, kā AI nozīmē, ka izplatās dezinformācija.

Mākslīgais intelekts (AI) tagad spēlē lomu dažādos mūsu dzīves aspektos. Konkrēti, ģeneratīvie AI rīki, piemēram, ChatGPT un citi, ir ievērojami pieaudzis. Tas nozīmē, ka nākotnē būs daudz AI radīta satura.

Tomēr ģeneratīvais AI rada arī AI radītas dezinformācijas risku. Tās funkcijas atvieglo oportūnistiskām personām nepatiesas informācijas izplatīšanu. Tātad, izpētīsim, kā ģeneratīvs AI tiek izmantots dezinformācijai.

Iespējamie ģeneratīvā mākslīgā intelekta riski izplatīt dezinformāciju

Ģeneratīvā AI rada daudzus draudus cilvēkiem, piemēram, darba atņemšanu, lielāku novērošanu un kiberuzbrukumus. Un drošības problēmas ar AI pasliktināsies vēl vairāk. Bet ir vēl viens bažas: cilvēki var to izmantot, lai izplatītu melus. Maldinošas personas var izmantot ģeneratīvu AI, lai kopīgotu viltus ziņas, izmantojot vizuālu, dzirdamu vai teksta saturu.

Viltus ziņas var iedalīt trīs veidos:

  1. Dezinformācija: Netīši nepareiza vai nepatiesa informācija.
  2. Dezinformācija: manipulatīvas vai maldinošas informācijas apzināta izmantošana.
  3. Malinformācija: Maldinošas ziņas vai pārspīlēta patiesības versija.

Kad apvienojumā ar deepfake tehnoloģiju, ģeneratīvie AI rīki var padarīt saturu, kas izskatās un izklausās reāls, piemēram, attēlus, videoklipus, audio klipus un dokumentus. Ir daudz iespēju izveidot viltus saturu, tāpēc zinot kā pasargāt sevi no deepfake video ir svarīgi.

Viltus ziņu izplatītāji var radīt saturu lielos daudzumos, atvieglojot izplatīšanu masām, izmantojot sociālos medijus. Mērķtiecīgu dezinformāciju var izmantot, lai ietekmētu politiskās kampaņas, potenciāli ietekmējot vēlēšanas. Turklāt AI teksta un attēlu ģenerēšanas rīku izmantošana rada bažas par autortiesību likumiem, kā ziņoja Kongresa pētniecības dienests: šo rīku radītā satura īpašumtiesību noteikšana kļūst sarežģīta.

Kā likums risinās viltus ziņu izplatīšanu, izmantojot ģeneratīvo AI? Kurš būs atbildīgs par nepatiesas informācijas izplatīšanu — lietotāji, izstrādātāji vai paši rīki?

4 veidi, kā ģeneratīvo AI var izmantot dezinformācijas izplatīšanai

Lai saglabātu drošību tiešsaistē, ikvienam ir jāsaprot ģeneratīvā AI riski, izplatot dezinformāciju, jo tai ir daudz dažādu veidu. Šeit ir daži veidi, kā to var izmantot, lai manipulētu ar cilvēkiem.

1. Viltus satura ģenerēšana tiešsaistē

Viltus satura izveide, izmantojot ģeneratīvo AI, ir izplatīta stratēģija, ko izmanto tie, kas izplata viltus ziņas. Viņi izmanto populārus ģeneratīvos AI rīkus, piemēram, ChatGPT, DALL-E, Bard, Midjourney un citus, lai radītu dažāda veida saturu. Piemēram, ChatGPT var palīdzēt satura veidotājiem daudzos veidos. Taču tas var arī ģenerēt sociālo mediju ziņas vai ziņu rakstus, kas var maldināt cilvēkus.

Lai to pierādītu, es pamudināju ChatGPT uzrakstīt izdomātu rakstu par ASV prezidenta Džo Baidena aizturēšanu saistībā ar apsūdzībām korupcijā. Mēs arī prasījām tajā iekļaut paziņojumus no attiecīgajām iestādēm, lai padarītu to ticamāku.

Šis ir fiktīvais raksts, ko nāca klajā ChatGPT:

Pārsteidzoši, rezultāts bija ļoti pārliecinošs. Tajā bija iekļauti autoritatīvu personu vārdi un izteikumi, lai raksts būtu pārliecinošāks. Tas parāda, kā ikviens var izmantot šādus rīkus, lai radītu viltus ziņas un viegli izplatītu tās tiešsaistē.

2. Tērzēšanas robotu izmantošana cilvēku viedokļu ietekmēšanai

Tērzēšanas roboti, kas balstās uz ģeneratīviem AI modeļiem, var izmantot dažādas taktikas, lai ietekmētu cilvēku viedokļus, tostarp:

  • Emocionāla manipulācijaAI var izmantot emocionālās inteliģences modeļus, lai izmantotu emocionālos izraisītājus un aizspriedumus, lai veidotu jūsu perspektīvas.
  • Atbalss kameras un apstiprinājuma novirze: tērzēšanas roboti var nostiprināt esošos uzskatus, izveidojot atbalss kameras, kas apstiprina jūsu aizspriedumus. Ja jums jau ir noteikts viedoklis, AI var to stiprināt, sniedzot informāciju, kas atbilst jūsu viedokļiem.
  • Sociālais pierādījums un bandwagon efekts: AI var manipulēt ar sabiedrības noskaņojumu, radot sociālos pierādījumus. Tam var būt ievērojamas sekas, jo tas var likt cilvēkiem pielāgoties populāriem uzskatiem vai sekot pūlim.
  • Mērķtiecīga personalizācija: tērzēšanas robotiem ir piekļuve milzīgam datu apjomam, ko tie var savākt, lai izveidotu personalizētus profilus. Tādējādi viņi var pielāgot saturu atbilstoši jūsu vēlmēm. Izmantojot mērķtiecīgu personalizēšanu, AI var pārliecināt indivīdus vai vēl vairāk nostiprināt viņu uzskatus.

Visi šie piemēri ilustrē, kā tērzēšanas robotus var izmantot, lai maldinātu cilvēkus.

3. AI DeepFakes izveide

Kāds var izmantot dziļus viltojumus, lai izveidotu nepatiesus videoklipus, kuros kāds saka vai dara lietas, ko viņi nekad nav darījuši. Viņi var izmantot šādus rīkus sociālajai inženierijai vai nomelnošanas kampaņu vadīšanai pret citiem. Turklāt mūsdienu mēmu kultūrā dziļi viltojumi var kalpot kā kiberhuligānisma instrumenti sociālajos medijos.

Turklāt politiskie pretinieki var izmantot dziļi viltotus audio un video, lai aptraipītu savu oponentu reputāciju, manipulējot ar sabiedrības noskaņojumu ar mākslīgā intelekta palīdzību. Tātad AI ģenerēti dziļi viltojumi nākotnē rada daudzus draudus. Saskaņā ar 2023 Reuters ziņo, AI tehnoloģijas pieaugums varētu ietekmēt Amerikas 2024. gada vēlēšanas. Ziņojumā ir uzsvērta tādu rīku kā Midjourney un DALL-E pieejamība, kas var viegli izveidot izdomātu saturu un ietekmēt cilvēku kolektīvos viedokļus.

Tāpēc ir svarīgi, lai tas būtu iespējams identificēt videoklipus, kas izveidoti ar dziļu viltojumu un atšķirt tos no oriģināliem.

4. Cilvēku balsu klonēšana

Ģeneratīvā AI kopā ar dziļo viltojumu tehnoloģiju ļauj manipulēt ar kāda cilvēka runu. Deepfake tehnoloģija strauji attīstās un piedāvā dažādus rīkus, kas var atkārtot jebkuras personas balsi. Tas ļauj ļaunprātīgām personām uzdoties par citiem un maldināt nenojaušus cilvēkus. Viens no šādiem piemēriem ir dziļās viltus mūzikas izmantošana.

Iespējams, esat saskāries ar tādiem rīkiem kā Atgādina AI, Runāt, Neīstais tuun citi, kas var atdarināt slavenību balsis. Lai gan šie AI audio rīki var būt izklaidējoši, tie rada ievērojamus riskus. Krāpnieki var izmantot balss klonēšanas paņēmienus dažādām krāpnieciskām shēmām, radot finansiālus zaudējumus.

Krāpnieki var izmantot viltotas balsis, lai uzdotos par jūsu mīļajiem un piezvanītu jums, izliekoties, ka ir nonākuši nelaimē. Izmantojot sintētisko audio, kas izklausās pārliecinoši, viņi var mudināt jūs steidzami nosūtīt naudu, tādējādi jūs kļūstot par viņu krāpniecības upuri. Par incidentu ziņoja The Washington Post 2023. gada martā ir šīs problēmas piemērs: krāpnieki izmantoja viltotas balsis, lai pārliecinātu cilvēkus, ka viņu mazdēli atrodas cietumā un viņiem ir vajadzīga nauda...

Kā pamanīt AI izplatīto dezinformāciju

Mūsdienu pasaulē aktuāla problēma ir cīņa pret dezinformācijas izplatību, ko veicina AI. Tātad, kā jūs varat pamanīt nepatiesu informāciju, ko ir sagatavojis AI?

  1. Pieejiet tiešsaistes saturam skeptiski. Ja sastopaties ar kaut ko, kas šķiet manipulatīvs vai neticams, pārbaudiet to, veicot kontrolpārbaudi.
  2. Pirms uzticaties ziņu rakstam vai ierakstam sociālajos tīklos, pārliecinieties, ka tā izcelsme ir no cienījama avota.
  3. Pievērsiet uzmanību dziļu viltojumu pazīmēm, piemēram, nedabiska mirgošana vai sejas kustības, slikta audio kvalitāte, izkropļoti vai izplūduši attēli un patiesu emociju trūkums runā.
  4. Izmantojiet faktu pārbaudes vietnes, lai pārbaudītu informācijas precizitāti.

Veicot šīs darbības, varat identificēt un pasargāt sevi no AI izraisītas dezinformācijas.

Sargieties no AI izplatītās dezinformācijas

Ģeneratīvajai programmatūrai ir bijusi izšķiroša loma AI attīstībā. Tomēr tie var būt arī nozīmīgs dezinformācijas avots sabiedrībā. Šie pieejamie rīki ir ļāvuši ikvienam izveidot dažāda veida saturu, izmantojot izsmalcinātus AI modeļus; to spēja ģenerēt saturu lielos daudzumos un iekļaut dziļos viltojumus padara tos vēl bīstamākus.

Ir svarīgi, lai jūs apzinātos dezinformācijas problēmas AI laikmetā. Izpratne par to, kā AI var izmantot viltus ziņu izplatīšanai, ir pirmais solis, lai pasargātu sevi no dezinformācijas.