Mākslīgais intelekts (AI) var mainīt mūsu sabiedrības būtību. Un, ja pašlaik mūsu rīcībā esošie AI rīki liecina par gaidāmo, mums ir daudz ko gaidīt.
Mums arī ir daudz, no kā jāuzmanās. Proti, kibernoziedznieku un citu apdraudējuma dalībnieku īstenotā mākslīgā intelekta ieroču izmantošana. Tas nav teorētisks jautājums, un pat AI attēlu ģeneratori nav pasargāti no ļaunprātīgas izmantošanas.
Kas ir AI attēlu ģeneratori? Kā tās darbojas?
Ja kādreiz esat izmantojis AI attēlu ģeneratoru, jums ir diezgan laba ideja par to, kas tie ir. Pat ja jūs to nekad neesat izmantojis, jūs, visticamāk, esat saskāries ar AI radītiem attēliem sociālajos medijos un citur. Mūsdienās populārā programmatūra darbojas pēc ļoti vienkārša principa: lietotājs ieraksta tekstu, un AI ģenerē attēlu, pamatojoties uz šo tekstu.
Tas, kas notiek zem pārsega, ir daudz sarežģītāks. AI pēdējos gados ir kļuvis daudz labāks, un lielākā daļa
teksta-attēlu ģeneratori mūsdienās ir tā sauktie difūzijas modeļi. Tas nozīmē, ka viņi ir "apmācīti" ilgā laika periodā uz milzīgu tekstu un attēlu skaitu, kas padara viņu darbus tik iespaidīgus un satriecoši reālistiskus.Šos AI rīkus vēl iespaidīgākus padara fakts, ka tie ne tikai pārveido esošos attēlus vai apvieno tūkstošiem attēlu vienā, bet arī rada jaunus, oriģinālus attēlus no nulles. Jo vairāk cilvēku izmanto šos teksta pārveidošanas attēlu ģeneratorus, jo vairāk informācijas viņi saņem un jo labāki kļūst viņu darbi.
Daži no pazīstamākajiem AI attēlu ģeneratori ir Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor un Craiyon. Jauni parādās pa kreisi un pa labi, un tehnoloģiju giganti, tostarp Google, izlaiž savus, tāpēc mēs varam tikai spekulēt par to, ko nesīs nākotne.
4 veidi, kā apdraudēt aktieri AI attēlu ģeneratorus
Tāpat kā gandrīz visas tehnoloģijas, AI attēlu ģeneratorus var ļaunprātīgi izmantot ļaunprātīgi aktieri. Patiesībā tie jau tiek izmantoti visa veida nelietīgiem mērķiem. Bet tieši kāda veida krāpniecību un kiberuzbrukumus noziedznieks var veikt ar AI attēlu ģeneratoru palīdzību?
1. Sociālā inženierija
Viena acīmredzama lieta, ko apdraudējuma dalībnieki varētu darīt ar AI attēlu ģeneratoriem, ir iesaistīties sociālajā inženierijā; piemēram, izveidot viltotus sociālo mediju profilus. Dažas no šīm programmām var radīt neticami reālistiskus attēlus, kas izskatās gluži kā īstas reālu cilvēku fotogrāfijas, un krāpnieks var izmantot šos viltotos sociālo mediju profilus, lai zvejotu sams.
Atšķirībā no īstu cilvēku fotogrāfijām, mākslīgā intelekta radītās fotogrāfijas nevar atklāt, izmantojot apgriezto attēlu meklēšanu, un kibernoziedzniekam nav jāstrādā ar ierobežots fotogrāfiju skaits, lai sasniegtu savu mērķi — izmantojot AI, viņi var ģenerēt tik daudz, cik vēlas, veidojot pārliecinošu tiešsaistes identitāti no skrāpēt.
Taču ir reāli piemēri, kad draudu dalībnieki izmanto AI attēlu ģeneratorus, lai izkrāptu cilvēkus. 2022. gada aprīlī, TechTalks emuāru autors Bens Dikinsons saņēma e-pastu no advokātu biroja, kurā tika apgalvots, ka viņš bez atļaujas izmantojis attēlu. Advokāti pa e-pastu nosūtīja Digitālās tūkstošgades autortiesību likuma paziņojumu par autortiesību pārkāpumu, norādot Dikinsonam, ka viņam ir jāsaista atpakaļ uz viņu klientu vai jānoņem attēls.
Dikinsons meklēja Google advokātu biroju un atrada oficiālo vietni. Tas viss šķita pilnīgi likumīgi; vietnē pat bija 18 juristu fotogrāfijas, kopā ar viņu biogrāfijām un akreditācijas datiem. Bet nekas no tā nebija īsts. Visas fotogrāfijas ģenerēja AI, un tika izsūtīti paziņojumi par autortiesību pārkāpumiem kāds vēlas izspiest atpakaļsaites no nenojaušajiem emuāru autoriem kā daļu no neētiskas, melnas cepure SEO (Meklētājprogrammu optimizācija) stratēģija.
2. Labdarības izkrāpšana
Kad 2023. gada februārī postošas zemestrīces skāra Turciju un Sīriju, miljoniem cilvēku visā pasaulē pauda solidaritāti ar upuriem, ziedojot drēbes, pārtiku un naudu.
Saskaņā ar ziņojumu no BBCkrāpnieki to izmantoja, izmantojot AI, lai izveidotu reālistiskus attēlus un lūgtu ziedojumus. Viens krāpnieks TikTok Live rādīja AI ģenerētus drupu attēlus, lūdzot skatītājiem ziedojumus. Vēl viens ievietoja mākslīgā intelekta ģenerētu attēlu ar grieķu ugunsdzēsēju, kurš izglābj ievainotu bērnu no drupām, un lūdza saviem sekotājiem ziedojumus Bitcoin.
Var tikai iedomāties, kāda veida labdarības izkrāpšanu noziedznieki veiks ar mākslīgā intelekta palīdzību nākotnē, taču var droši pieņemt, ka viņi tikai labāk izmantos šo programmatūru.
3. Dziļi viltojumi un dezinformācija
Valdības, aktīvistu grupas un ideju laboratorijas jau sen ir brīdinājušas par to dziļo viltojumu briesmas. AI attēlu ģeneratori šai problēmai pievieno vēl vienu komponentu, ņemot vērā to, cik reālistiski ir viņu darbi. Faktiski Apvienotajā Karalistē ir pat komēdijas šovs ar nosaukumu Deep Fake Neighbor Wars, kas atrod humoru maz ticamos slavenību pāros. Kas atturētu dezinformācijas aģentu izveidot viltus attēlu un reklamēt to sociālajos tīklos ar botu palīdzību?
Tam var būt reālas sekas, kā tas gandrīz notika 2022. gada martā, kad tiešsaistē tika izplatīts viltus video, kurā bija attēlots Ukrainas prezidents Volodimirs Zelenskis, kas liek ukraiņiem padoties. NPR. Bet tas ir tikai viens piemērs, jo iespējas ir gandrīz bezgalīgas, un ir neskaitāmi veidi a draudu aktieris var sabojāt kāda reputāciju, reklamēt nepatiesu stāstījumu vai izplatīt viltus ziņas ar palīdzību AI.
4. Reklāmu krāpšana
TrendMicro Pētnieki 2022. gadā atklāja, ka krāpnieki izmanto mākslīgā intelekta radītu saturu, lai izveidotu maldinošas reklāmas un reklamētu ēnu produktus. Viņi izveidoja attēlus, kuros populārām slavenībām tika ieteikts izmantot noteiktus produktus, un, pamatojoties uz šiem attēliem, vadīja reklāmas kampaņas.
Piemēram, vienā reklāmā par "finanšu konsultāciju iespēju" bija redzams miljardieris Elons Masks, Tesla dibinātājs un izpilddirektors. Protams, Musks nekad nav atbalstījis attiecīgo produktu, taču AI radītie kadri lika tā šķist, iespējams, vilinot nenojaušos skatītājus noklikšķināt uz reklāmām.
AI un kiberdrošība: sarežģīta problēma, kas mums jārisina
Turpmāk valdības regulatoriem un kiberdrošības ekspertiem, iespējams, būs jāsadarbojas, lai novērstu jaunos ar AI darbinātus kibernoziedzības draudus. Bet kā mēs varam regulēt AI un aizsargāt parastos cilvēkus, neierobežojot inovācijas un neierobežojot digitālās brīvības? Šis jautājums būs aktuāls daudzus gadus.
Kamēr nav atbildes, dariet visu iespējamo, lai sevi aizsargātu: rūpīgi pārbaudiet jebkuru tiešsaistē redzamo informāciju, izvairieties no tā ēnainas vietnes, izmantojiet drošu programmatūru, atjauniniet savas ierīces un iemācieties izmantot mākslīgo intelektu priekšrocība.