ChatGPT var palīdzēt cilvēkiem veikt daudzas darbības, tostarp piekļūt jūsu sensitīvākajai informācijai.

Kopš tās palaišanas ChatGPT, OpenAI tērzēšanas robotu, miljoniem cilvēku ir izmantojuši teksta rakstīšanai, mūzikas radīšanai un koda ģenerēšanai. Taču, tā kā arvien vairāk cilvēku izmanto AI tērzēšanas robotu, ir svarīgi ņemt vērā drošības riskus.

Tāpat kā jebkuru tehnoloģiju, ChatGPT var izmantot negodīgu iemeslu dēļ. Hakeri, piemēram, to var izmantot, lai izveidotu ļaunprātīgu saturu, piemēram, rakstītu viltus e-pasta ziņojumus, lai piekļūtu jūsu datoram vai pat jūsu bankas kontam.

ChatGPT var palīdzēt kibernoziedzniekiem uzlauzt jūsu datoru

Hakeri, tostarp skriptu bērni, var izmantojiet ChatGPT, lai izveidotu jaunu ļaunprātīgu programmatūru vai uzlabot esošās. Daži kibernoziedznieki jau izmanto tērzēšanas robotu, īpaši tā iepriekšējās versijas, lai rakstītu kodu, kas, viņuprāt, var šifrēt failus.

Lai novērstu šādus lietošanas gadījumus, OpenAI ir ieviesis mehānismus, lai noraidītu aicinājumus ChatGPT izveidot ļaunprātīgu programmatūru. Piemēram, ja jūs lūdzat tērzēšanas robotam “rakstīt ļaunprātīgu programmatūru”, tas netiks darīts. Neskatoties uz to, kibernoziedznieki viegli apiet šos satura regulēšanas šķēršļus.

Darbojoties kā pildspalvu pārbaudītājs, draudu izpildītājs var pārfrāzēt savus aicinājumus, lai pievilinātu ChatGPT ierakstīt kodu, ko pēc tam var pielāgot un izmantot kiberuzbrukumos.

A Check Point ziņojumsIzraēlas drošības uzņēmums norāda, ka hakeris varēja izmantot ChatGPT, lai izveidotu pamata Infostealer ļaunprātīgu programmatūru. Drošības firma arī atklāja citu lietotāju, kurš apgalvo, ka ChatGPT palīdzēja viņam izveidot daudzslāņu šifrēšanas rīku, kas var šifrēt vairākus failus izspiedējvīrusa uzbrukumā.

Atsevišķā incidentā pētnieki pamudināja ChatGPT ģenerēt ļaunprātīgu VBA kodu, ko varētu implantēt Microsoft Excel failā, kas, atverot, inficētu jūsu datoru; tas veiksmīgi izdevās. Turklāt ir apgalvojumi, ka ChatGPT var kodēt ļaunprātīgu programmatūru, kas spēj izspiegot jūsu tastatūras sitienus.

Vai ChatGPT var uzlauzt jūsu bankas kontu?

Daudzi datu pārkāpumi sākas ar veiksmīgs pikšķerēšanas uzbrukums. Pikšķerēšanas uzbrukumos bieži vien ļaunprātīgs dalībnieks nosūta adresātam e-pasta ziņojumu, kurā ir likumīga izskata dokumenti vai saites, uz kurām noklikšķinot, viņa ierīcē var instalēt ļaunprātīgu programmatūru. Tādā veidā ChatGPT kodam nav nepieciešams tieši uzlauzt jūsu bankas kontu. Kādam ir tikai jāizmanto ChatGPT, lai palīdzētu jums ar viltu piešķirt piekļuvi.

Par laimi, jūs varat viegli atpazīt lielāko daļu tradicionālo pikšķerēšanas veidu; tos bieži raksturo gramatikas kļūdas, pareizrakstības kļūdas un dīvainas frāzes. Taču šīs visas ir kļūdas, kuras ChatGPT pieļauj reti, pat ja tās tiek izmantotas, lai izveidotu ļaunprātīgus e-pasta ziņojumus pikšķerēšanas krāpniecības nolūkā.

Ja ziņojumi tiek izmantoti pikšķerēšanas krāpniecībā, tie, šķiet, ir no likumīga avota, var atvieglot upuriem atteikties no savas personu identificējošās informācijas, piemēram, banku paroles.

Ja banka nosūtīja jums ziņojumu pa e-pastu, apsveriet iespēju apmeklēt bankas vietni tieši, nevis noklikšķināt uz jebkuras iegultās saites. Noklikšķināšana uz nejaušām saitēm un pielikumiem, jo ​​īpaši tiem, kas lūdz jums kaut kur pieteikties, reti ir laba ideja.

Pikšķerēšanas gadījumā tas galvenokārt attiecas uz apjomu. ChatGPT var palīdzēt veicināt pikšķerēšanas kampaņas, jo tas var ātri izsūknēt milzīgu daudzumu dabiski skanošu tekstu, kas ir pielāgoti konkrētām mērķauditorijām.

Cits pikšķerēšanas uzbrukuma veids, kas saistīts ar ChatGPT izmantošanu, ir tas, ka hakeris izveido viltotu kontu populārā tērzēšanas platformā, piemēram, Discord, un uzdodas par klienta pārstāvi. Viltus klientu pārstāvis pēc tam sazinās ar klientiem, kuri ir publicējuši bažas, un piedāvā palīdzību. Ja lietotājs iekrīt slazdā, kibernoziedznieks viņu novirzīs uz viltotu vietni, kas viņus piemānās kopīgot personisko informāciju, piemēram, bankas pieteikšanās datus.

Aizsargājiet savu datoru un bankas kontu mākslīgā intelekta laikmetā

ChatGPT ir spēcīgs un vērtīgs rīks, kas var atbildēt uz daudziem jūsu jautājumiem. Taču tērzēšanas robotu var izmantot arī ļaunprātīgiem mērķiem, piemēram, pikšķerēšanas ziņojumu ģenerēšanai un ļaunprātīgas programmatūras izveidei.

Labā ziņa ir tā, ka OpenAI turpina ieviest pasākumus, kas neļauj lietotājiem izmantot ChatGPT, uzdodot kaitīgas uzvednes. Arī draudu dalībnieki turpina atrast jaunus veidus, kā apiet šos ierobežojumus.

Lai samazinātu AI tērzēšanas robotu iespējamos draudus, ir ļoti svarīgi zināt to iespējamos riskus un labākos iespējamos drošības pasākumus, lai pasargātu sevi no hakeriem.