FraudGPT ir valodas modelis, kas pielāgots, lai palīdzētu noziedzniekiem veikt krāpnieciskas darbības. Uzziniet, ko nozīmē aizsargāt pret iespējamiem draudiem.
Mākslīgā intelekta (AI) pieaugums ir abpusēji griezīgs zobens. Tāpat kā jebkura transformējoša tehnoloģija, AI piedāvā milzīgu potenciālu, bet arī milzīgus riskus. Neraugoties uz stingrajiem centieniem regulēt AI, šķiet, ka draudu dalībnieki ir panākuši līknes priekšā.
Jauns ChatGPT stila rīks FraudGPT kļūst arvien populārāks kibernoziedznieku vidū, ļaujot tiem automatizēt un labāk veikt lielu daļu krāpšanas operāciju. Ikviens var kļūt par upuri, tāpēc ir svarīgi būt informētam. Šeit ir viss, ko mēs līdz šim zinām par FraudGPT.
Kas ir FraudGPT?
FraudGPT ir mākslīgā intelekta rīks, ko darbina liels valodas modelis, kas ir īpaši pielāgots, lai palīdzētu kibernoziedzniekiem veikt kibernoziegumus. Abonēšanas AI rīks ļauj apdraudējuma dalībniekiem atvieglot savas noziedzīgās darbības, piemēram, kāršanu, pikšķerēšanu un ļaunprātīgas programmatūras izveidi.
Lai gan informācija par rīku joprojām ir ļoti ierobežota, drošības pētījumu firmas Netenrich pētnieki ir atklājuši vairākas reklāmas tumšajā tīmeklī, kas reklamē šo rīku. Saskaņā ar Netenrich pētījuma ziņojums, abonēšanas maksas svārstās no USD 200 mēnesī līdz USD 1700 gadā.
Lai labāk attēlotu rīku, varat uzskatīt FraudGPT kā ChatGPT, bet par krāpšanu. Bet kā tieši FraudGPT darbojas un kā to izmanto kibernoziedznieki?
Kā darbojas FraudGPT?
Savā būtībā FraudGPT būtiski neatšķiras no jebkura rīka, ko darbina liels valodas modelis. Citiem vārdiem sakot, pats rīks ir interaktīvs interfeiss noziedzniekiem, lai piekļūtu īpaša veida valodas modelim, kas ir pielāgots kibernoziegumu izdarīšanai.
Joprojām nesaprotat? Šeit ir aptuvens priekšstats par to, par ko mēs runājam. ChatGPT palaišanas pirmajās dienās AI tērzēšanas robotu varēja izmantot, lai veiktu gandrīz jebko, tostarp palīdzētu kibernoziedzniekiem izveidot ļaunprātīgu programmatūru. Tas bija iespējams, jo ChatGPT pamatā esošais valodas modelis tika apmācīts, izmantojot datu kopu, kurā, iespējams, bija dažādu datu paraugi, tostarp dati, kas varētu palīdzēt noziedzīgam riskam.
Lielos valodu modeļos parasti tiek izmantots viss, sākot no labām lietām, piemēram, zinātnes teorijām, veselības informācijas un politikas, uz ne pārāk labiem, piemēram, ļaunprātīgas programmatūras koda paraugiem, ziņojumiem no kāršanas un pikšķerēšanas kampaņām un citiem noziedzīgiem materiāliem. Runājot par datu kopām, kas vajadzīgas, lai apmācītu valodu modeļus, piemēram, tādus, kas nodrošina ChatGPT, ir gandrīz neizbēgami, ka modelī ir ietverti nevēlamu materiālu paraugi.
Neskatoties uz parasti rūpīgajiem centieniem novērst nevēlamos materiālus datu kopā, daži izslīd, un parasti tie joprojām ir pietiekami, lai modelim dotu iespēju ģenerēt materiālus, lai atvieglotu kibernoziegumi. Tieši tāpēc ar tiesībām ātra inženierija, varat iegūt tādus rīkus kā ChatGPT, Google Bard un Bing AI, lai palīdzētu rakstīt krāpnieciskus e-pastus vai datoru ļaunprātīgu programmatūru.
Ja tādi rīki kā ChatGPT var palīdzēt kibernoziedzniekiem izdarīt noziegumus, neskatoties uz visiem centieniem padarīt šos AI tērzēšanas robotus drošus, tagad padomājiet par jaudu tāds rīks kā FraudGPT, ņemot vērā, ka tas ir īpaši pielāgots ļaunprātīgiem materiāliem, lai tas būtu piemērots kibernoziegumi. Tas ir tāpat kā ChatGPT ļaunais dvīnis, kas lietojis steroīdus.
Tātad, lai izmantotu rīku, noziedznieki varētu vienkārši pamudināt tērzēšanas robotu, kā to darītu ar ChatGPT. Viņi varētu lūgt, teiksim, uzrakstīt pikšķerēšanas e-pasta ziņojumu Džeinai Dū, kura strādā uzņēmumā ABC, vai arī lūgt tai uzrakstīt ļaunprātīgu programmatūru, izmantojot C++, lai nozagtu visus PDF failus no Windows 10 datora. Noziedznieki būtībā vienkārši izdomātu ļaunu mehanizāciju un ļautu čatbotam veikt smago celšanu.
Kā jūs varat pasargāt sevi no FraudGPT?
Neskatoties uz to, ka tas ir jauna veida rīks, FraudGPT radītie draudi būtiski neatšķiras. Varētu teikt, ka tas ievieš lielāku automatizāciju un efektivitāti jau izveidotajām kibernoziegumu izpildes metodēm.
Noziedznieki, kuri izmanto šo rīku, vismaz teorētiski varētu rakstīt pārliecinošākus pikšķerēšanas e-pastus, labāk plānot krāpniecību un radīt efektīvāku ļaunprogrammatūru, taču viņi lielākoties joprojām paļautos uz iedibinātajiem veidiem, kā izpildīt savus nelietīgos plāniem. Rezultātā joprojām ir spēkā noteiktie veidi, kā sevi aizsargāt:
- Esiet piesardzīgs pret nevēlamiem ziņojumiem, kuros tiek prasīta informācija vai tiek likts noklikšķināt uz saitēm. Nesniedziet informāciju un neklikšķiniet uz saitēm šajos ziņojumos, ja vien nepārbaudāt avotu.
- Sazinieties ar uzņēmumiem tieši, izmantojot neatkarīgu, pārbaudītu numuru, lai pārbaudītu likumību. Neizmantojiet aizdomīgos ziņojumos norādīto kontaktinformāciju.
- Izmantojiet spēcīgas, unikālas paroles, kuras ir grūti uzlauzt un ietver divu faktoru autentifikāciju, ja tā ir pieejama visiem kontiem. Nekad neizpaudiet jums nosūtītās paroles vai kodus.
- Regulāri pārbaudiet, vai konta izrakstos nav konstatētas aizdomīgas darbības.
- Atjauniniet programmatūru un izmantojiet pretvīrusu vai ļaunprātīgas programmatūras novēršanas rīkus.
- Sasmalciniet dokumentus, kas satur personu identificējošu vai finanšu informāciju, kad tie vairs nav nepieciešami.
Lai uzzinātu vairāk par to, kā sevi pasargāt, izlasiet mūsu ceļvedi kā pasargāt sevi AI laikmetā.
Esiet informēts, lai aizsargātu sevi
Tādu rīku kā FraudGPT parādīšanās mums atgādina, ka, neskatoties uz visu labo, ko AI var sniegt mūsu labā, tas joprojām ir ļoti spēcīgs rīks apdraudējuma dalībnieku rokās.
Valdībām un lielajiem AI uzņēmumiem izmisīgi cīnoties, lai ieviestu labākus AI regulēšanas veidus, ir svarīgi apzināties draudus, ko pašlaik rada AI, un veikt nepieciešamos aizsardzības pasākumus sevi.