Tērzēšanas roboti un tiem līdzīgie var šķist patīkama izklaide, taču tie ir noderīgi arī hakeriem. Lūk, kāpēc mums visiem ir jāzina AI drošības risks.

AI pēdējos gados ir ievērojami attīstījies. Izsmalcināti valodu modeļi var veidot pilna garuma romānus, kodēt pamata vietnes un analizēt matemātikas problēmas.

Lai gan tas ir iespaidīgs, ģeneratīvais AI rada arī drošības riskus. Daži cilvēki tikai izmanto tērzēšanas robotus, lai krāptos eksāmenos, bet citi tos tieši izmanto kibernoziegumiem. Šeit ir astoņi iemesli, kāpēc šīs problēmas saglabāsies, ne tikai neskatoties uz to AI sasniegumi, bet jo arī no viņiem.

1. Atvērtā pirmkoda AI tērzēšanas roboti atklāj aizmugures kodus

Vairāk AI uzņēmumu nodrošina atvērtā pirmkoda sistēmas. Viņi atklāti dalās savos valodas modeļos, nevis patur tos slēgtus vai īpašumtiesības. Ņemiet par piemēru Metu. Atšķirībā no Google, Microsoft un OpenAI, tas ļauj miljoniem lietotāju piekļūt tā valodas modelim, LLAMA.

Lai gan atklātā avota kodi var veicināt AI, tas ir arī riskanti.

OpenAI jau ir problēmas ar ChatGPT kontroli, tā patentētais tērzēšanas robots, tāpēc iedomājieties, ko blēži varētu darīt ar bezmaksas programmatūru. Viņiem ir pilnīga kontrole pār šiem projektiem.

Pat ja Meta pēkšņi izvelk savu valodas modeli, desmitiem citu AI laboratoriju jau ir izlaidušas savus kodus. Apskatīsim HuggingChat. Tā kā tā izstrādātājs HuggingFace lepojas ar caurspīdīgumu, tas parāda savas datu kopas, valodas modeli un iepriekšējās versijas.

2. Jailbreaking Prompts Trick LLM

AI pēc savas būtības ir amorāls. Tas nesaprot pareizo un nepareizo — pat uzlabotas sistēmas ievēro apmācības norādījumus, vadlīnijas un datu kopas. Viņi tikai atpazīst modeļus.

Lai cīnītos pret nelikumīgām darbībām, izstrādātāji kontrolē funkcionalitāti un ierobežojumus, nosakot ierobežojumus. AI sistēmas joprojām piekļūst kaitīgai informācijai. Taču drošības vadlīnijas neļauj viņiem tos kopīgot ar lietotājiem.

Apskatīsim ChatGPT. Lai gan tas sniedz atbildes uz vispārīgiem jautājumiem par Trojas zirgiem, tajā netiks apspriests to izstrādes process.

Tas nozīmē, ka ierobežojumi nav droši. Lietotāji apiet ierobežojumus, pārfrāzējot uzvednes, izmantojot mulsinošu valodu un sastādot skaidri detalizētus norādījumus.

Izlasiet zemāk ChatGPT jailbreak uzvedne. Tas liek ChatGPT lietot rupju valodu un izteikt nepamatotas prognozes — abas darbības pārkāpj OpenAI vadlīnijas.

Šeit ir ChatGPT ar treknu, bet nepatiesu apgalvojumu.

3. AI apdraud drošību daudzpusības dēļ

AI izstrādātāji dod priekšroku daudzpusībai, nevis drošībai. Viņi tērē savus resursus apmācību platformām, lai veiktu daudzveidīgākus uzdevumus, galu galā samazinot ierobežojumus. Galu galā tirgū tiek piedāvāti funkcionāli tērzēšanas roboti.

pieņemsim salīdziniet ChatGPT un Bing Chat, piemēram. Lai gan Bing piedāvā sarežģītāku valodas modeli, kas iegūst reāllaika datus, lietotāji joprojām izvēlas daudzpusīgāko opciju ChatGPT. Bing stingrie ierobežojumi aizliedz daudzus uzdevumus. Alternatīvi, ChatGPT piedāvā elastīgu platformu, kas rada ļoti atšķirīgus rezultātus atkarībā no jūsu uzvednēm.

Šeit ir ChatGPT lomu spēle kā izdomāts varonis.

Un šeit ir Bing Chat, kurš atsakās spēlēt “amorālu” personību.

Atvērtā pirmkoda kodi ļauj jaunizveidotiem uzņēmumiem pievienoties AI sacensībām. Viņi tos integrē savās lietojumprogrammās, nevis veido valodu modeļus no nulles, ietaupot milzīgus resursus. Pat neatkarīgi kodētāji eksperimentē ar atvērtā pirmkoda kodiem.

Atkal, nepatentēta programmatūra palīdz attīstīt mākslīgo intelektu, taču vāji apmācītu, taču sarežģītu sistēmu masveida izlaišana nodara vairāk ļauna nekā laba. Krāpi ātri ļaunprātīgi izmantos ievainojamības. Viņi pat varētu apmācīt nedrošus AI rīkus, lai veiktu nelikumīgas darbības.

Neskatoties uz šiem riskiem, tehnoloģiju uzņēmumi turpinās izlaist AI vadītu platformu nestabilas beta versijas. AI sacīkstes apbalvo ātrumu. Viņi, visticamāk, novērsīs kļūdas vēlāk, nekā aizkavēs jaunu produktu izlaišanu.

5. Ģeneratīvajam AI ir zemas ienākšanas barjeras

AI rīki samazina šķēršļus noziegumu ienākšanai tirgū. Kibernoziedznieki veido surogātpasta e-pasta ziņojumus, raksta ļaunprātīgas programmatūras kodu un veido pikšķerēšanas saites, tos izmantojot. Viņiem pat nav vajadzīga tehniskā pieredze. Tā kā mākslīgais intelekts jau piekļūst plašām datu kopām, lietotājiem ir tikai jāmānās tas radīt kaitīgu, bīstamu informāciju.

OpenAI nekad nav izstrādājis ChatGPT nelikumīgām darbībām. Tai pat ir pret viņiem vērstas vadlīnijas. Tomēr krāpnieki gandrīz uzreiz ieguva ChatGPT kodēšanas ļaunprātīgu programmatūru un pikšķerēšanas e-pasta ziņojumu rakstīšana.

Lai gan OpenAI ātri atrisināja problēmu, tas uzsver sistēmas regulēšanas un riska pārvaldības nozīmi. AI nobriest ātrāk, nekā kāds gaidīja. Pat tehnoloģiju vadītāji uztraucas, ka šī superinteliģentā tehnoloģija var radīt milzīgus bojājumus nepareizajās rokās.

6. AI joprojām attīstās

AI joprojām attīstās. Kamēr AI izmantošana kibernētikā aizsākās 1940. gadā, tikai nesen parādījās modernas mašīnmācīšanās sistēmas un valodu modeļi. Jūs nevarat tos salīdzināt ar pirmajām AI ieviešanām. Pat salīdzinoši uzlaboti rīki, piemēram, Siri un Alexa, ir bāli salīdzinājumā ar LLM darbināmiem tērzēšanas robotiem.

Lai gan eksperimentālās funkcijas var būt novatoriskas, tās rada arī jaunas problēmas. Plaša profila neveiksmes ar mašīnmācīšanās tehnoloģijām svārstās no nepilnīgiem Google SERP līdz neobjektīviem tērzēšanas robotiem, kas spļauj rasistiskus apvainojumus.

Protams, izstrādātāji var novērst šīs problēmas. Vienkārši ņemiet vērā, ka krāpnieki nevilcināsies izmantot pat šķietami nekaitīgas kļūdas — daži bojājumi ir neatgriezeniski. Tāpēc esiet piesardzīgs, izpētot jaunas platformas.

7. Daudzi vēl nesaprot AI

Lai gan plašai sabiedrībai ir pieejami sarežģīti valodu modeļi un sistēmas, tikai daži zina, kā tie darbojas. Cilvēkiem vajadzētu pārtraukt MI uzskatīt par rotaļlietu. Tie paši tērzēšanas roboti, kas ģenerē mēmes un atbild uz niekiem, masveidā kodē arī vīrusus.

Diemžēl centralizēta AI apmācība ir nereāla. Pasaules tehnoloģiju līderi koncentrējas uz AI vadītu sistēmu izlaišanu, nevis bezmaksas izglītības resursu izlaišanu. Rezultātā lietotāji iegūst piekļuvi spēcīgiem, spēcīgiem rīkiem, kurus viņi tik tikko saprot. Sabiedrība nevar sekot AI sacīkstēm.

Kā piemēru ņemiet ChatGPT. Kibernoziedznieki ļaunprātīgi izmanto tās popularitāti, apmānot upurus spiegprogrammatūra, kas maskēta kā ChatGPT lietotnes. Neviena no šīm opcijām nenāk no OpenAI.

8. Black Hat Hackers var iegūt vairāk nekā White Hat Hackers

Melnās cepures hakeriem parasti ir var iegūt vairāk nekā ētiski hakeri. Jā, pildspalvu testēšana globālajiem tehnoloģiju līderiem maksā labi, taču tikai daļa kiberdrošības profesionāļu iegūst šos darbus. Lielākā daļa strādā ārštata darbu tiešsaistē. Platformas, piemēram HackerOne un Bugcrowd samaksājiet dažus simtus dolāru par izplatītām kļūdām.

Alternatīvi, blēži nopelna desmitiem tūkstošu, izmantojot nedrošību. Viņi var šantažēt uzņēmumus, nopludinot konfidenciālus datus vai veikt ID zādzību ar nozagtu Personu identificējoša informācija (PII).

Katrai iestādei, mazai vai lielai, ir pareizi jāievieš AI sistēmas. Pretēji izplatītajam uzskatam, hakeri sniedzas tālāk par tehnoloģiju jaunizveidotiem uzņēmumiem un MVU. Daži no visvairāk vēsturiski datu pārkāpumi pēdējā desmitgadē iesaistīt Facebook, Yahoo! un pat ASV valdību.

Aizsargājiet sevi no AI drošības riskiem

Ņemot vērā šos punktus, vai jums vajadzētu pilnībā izvairīties no AI? Protams, nē. AI pēc savas būtības ir amorāls; visi drošības riski izriet no cilvēkiem, kuri tos faktiski izmanto. Un viņi atradīs veidus, kā izmantot AI sistēmas neatkarīgi no tā, cik tālu tās attīstās.

Tā vietā, lai baidītos no AI radītajiem kiberdrošības draudiem, izprotiet, kā tos novērst. Neuztraucieties: vienkārši drošības pasākumi ir ļoti noderīgi. Piesardzība pret ēnainām AI lietotnēm, izvairīšanās no dīvainām hipersaitēm un AI satura skatīšanās ar skepsi jau novērš vairākus riskus.