AI tērzēšanas roboti var izraisīt halucinācijas, sniedzot pārliecinoši nepareizas atbildes, ko hakeri var izmantot. Lūk, kā hakeri bruņojas ar halucinācijām.
Lielo valodu modeļu AI ir nepilnīgi un dažreiz rada nepatiesu informāciju. Šie gadījumi, ko sauc par halucinācijām, var radīt kiberdraudus uzņēmumiem un atsevišķiem AI entuziastiem.
Par laimi, jūs varat palielināt aizsardzību pret AI halucinācijām ar paaugstinātu izpratni un veselīgas otrās minēšanas palīdzību.
Kāpēc AI halucinē?
Nav vienprātības par to, kāpēc AI modeļiem rodas halucinācijas, lai gan ir daži iespējamie minējumi.
AI tiek apmācīts no masīvām datu kopām, kurās bieži ir trūkumi, piemēram, domas, satura atšķirības vai kaitīgas novirzes. Jebkura apmācība no šīm nepilnīgajām vai neatbilstošajām datu kopām varētu būt halucināciju cēlonis, pat ja datu kopas vēlākās iterācijas saņēma datu zinātnieki.
Laika gaitā datu zinātnieki var padarīt informāciju precīzāku un ievadīt papildu zināšanas, lai aizpildītu vakances un samazinātu halucināciju iespējamību. Pārraugi var nepareizi marķēt datus. Programmēšanas kodā var būt kļūdas. Šo vienumu labošana ir būtiska, jo AI modeļi attīstās, pamatojoties uz mašīnmācīšanās algoritmiem.
Šie algoritmi izmanto datus, lai noteiktu. Tā paplašinājums ir AI neironu tīkls, kas rada jaunus lēmumus, sākot no mašīnmācīšanās pieredzes līdz atgādina cilvēka prāta oriģinalitāti precīzāk. Šajos tīklos ir transformatori, kas analizē attiecības starp attāliem datu punktiem. Kad transformatori noiet greizi, var rasties halucinācijas.
Kā AI halucinācijas sniedz iespējas hakeriem
Diemžēl nav vispārzināms, ka AI halucinē, un AI izklausīsies pārliecināti pat tad, ja tas ir pilnīgi nepareizi. Tas viss veicina lietotāju pašapmierinātību un uzticēšanos AI, un apdraudējuma dalībnieki paļaujas uz šo lietotāju uzvedību, lai liktu viņiem lejupielādēt vai izraisīt uzbrukumus.
Piemēram, mākslīgā intelekta modelis var halucinēt viltus koda bibliotēku un ieteikt lietotājiem lejupielādēt šo bibliotēku. Iespējams, ka modelis turpinās ieteikt šo pašu halucinēto bibliotēku daudziem lietotājiem, kuri uzdod līdzīgu jautājumu. Ja hakeri atklāj šīs halucinācijas, viņi var izveidot īstu iedomātās bibliotēkas versiju, taču piepildīta ar bīstamu kodu un ļaunprātīgu programmatūru. Tagad, kad AI turpina ieteikt kodu bibliotēku, neapzināti lietotāji lejupielādēs hakeru kodu.
Kaitīgu kodu un programmu pārvietošana, izmantojot AI halucinācijas, ir nepārsteidzošs nākamais solis draudu dalībniekiem. Hakeri ne vienmēr rada neskaitāmus jaunus kiberdraudus — viņi vienkārši meklē jaunus veidus, kā tos nodrošināt bez aizdomām. AI halucinācijas ir tas pats cilvēka naivums, noklikšķinot uz e-pasta saitēm, tas ir atkarīgs no (tāpēc jums vajadzētu izmantojiet saišu pārbaudes rīkus, lai pārbaudītu URL).
Arī hakeri to var pacelt uz nākamo līmeni. Ja meklējat palīdzību kodēšanas jomā un lejupielādējat viltotu, ļaunprātīgu kodu, draudu veicējs var arī padarīt kodu faktiski funkcionējošu, fonā darbojoties kaitīgai programmai. Tas, ka tas darbojas tā, kā jūs paredzat, nenozīmē, ka tas nav bīstams.
Izglītības trūkums var mudināt jūs lejupielādēt AI ģenerētus ieteikumus tiešsaistes autopilota darbības dēļ. Katra nozare ir pakļauta kultūras spiedienam ieviest AI savā uzņēmējdarbības praksē. Neskaitāmas organizācijas un nozares, kas ir tālu no tehnoloģijām, spēlē ar mākslīgā intelekta rīkiem ar nelielu pieredzi un vēl mazāku kiberdrošību, lai vienkārši saglabātu konkurētspēju.
Kā pasargāt sevi no ieročiem mākslīgā intelekta halucinācijām
Progress ir pie apvāršņa. Ļaunprātīgas programmatūras izveide ar ģeneratīvo AI bija vienkārša, pirms uzņēmumi pielāgoja datu kopas un noteikumus un nosacījumus, lai novērstu neētiskas paaudzes. Zinot sociālās, tehniskās un personīgās nepilnības, kas jums var būt pret bīstamām AI halucinācijām, kādi ir daži veidi, kā saglabāt drošību?
Ikviens nozares pārstāvis var strādāt pie neironu tīklu tehnoloģiju uzlabošanas un bibliotēku pārbaudes. Pirms atbildes saņem galalietotājus, ir jāveic pārbaudes un līdzsvars. Neskatoties uz to, ka tas ir nepieciešams nozares sasniegums, jums ir arī jāuzņemas sava loma, lai aizsargātu sevi un citus no radošiem AI draudiem.
Vidēji lietotāji var praktizēt AI halucināciju pamanīšanu ar šīm stratēģijām:
- Pareizrakstības un gramatikas kļūdu atrašana.
- Redzēt, kad vaicājuma konteksts nesakrīt ar atbildes kontekstu.
- Atzīstot, kad datorredzēti attēli neatbilst tam, kā cilvēka acis uztvers šo koncepciju.
Vienmēr esiet piesardzīgs, lejupielādējot saturu no interneta, pat ja to iesaka AI. Ja AI iesaka lejupielādēt kodu, nedariet to akli; pārbaudiet visas atsauksmes, lai pārliecinātos, ka kods ir likumīgs, un pārbaudiet, vai varat atrast informāciju par satura veidotāju.
Labākā pretestība pret AI halucināciju izraisītiem uzbrukumiem ir izglītība. Runājot par savu pieredzi un lasot, kā citi nejauši vai tīšas pārbaudes rezultātā izraisīja ļaunprātīgas halucinācijas, ir nenovērtējams, lai nākotnē orientētos AI.
AI kiberdrošības uzlabošana
Runājot ar AI, jums jābūt uzmanīgiem, ko lūdzat. Ierobežojiet bīstamu iznākumu iespējamību, esiet pēc iespējas precīzāki un apšaubiet visu, kas parādās ekrānā. Pārbaudiet kodu drošā vidē un pārbaudiet citu šķietami uzticamu informāciju. Turklāt sadarbojoties ar citiem, pārrunājot savu pieredzi un vienkāršojot žargonu par AI halucinācijas un kiberdrošības draudi var palīdzēt masām būt modrākām un noturīgākām pret hakeri.