Jūs, iespējams, esat dzirdējuši par pretrunīgiem uzbrukumiem saistībā ar mākslīgo intelektu un mašīnmācīšanos, bet kas tie ir? Kādi ir viņu mērķi?

Tehnoloģijas bieži vien nozīmē, ka mūsu dzīve ir ērtāka un drošāka. Tomēr tajā pašā laikā šādi sasniegumi ir pavēruši sarežģītākus veidus, kā kibernoziedznieki var uzbrukt mums un sabojāt mūsu drošības sistēmas, padarot tās bezspēcīgas.

Mākslīgo intelektu (AI) var izmantot gan kiberdrošības speciālisti, gan kibernoziedznieki; līdzīgi mašīnmācības (ML) sistēmas var izmantot gan labā, gan ļaunā. Šis morālā kompasa trūkums ir padarījis pretinieku uzbrukumus ML par pieaugošu izaicinājumu. Kas tad īsti ir pretrunīgie uzbrukumi? Kāds ir to mērķis? Un kā jūs varat pasargāt no tiem?

Kas ir pretrunīgi uzbrukumi mašīnmācībā?

Sacensību ML jeb pretrunīgie uzbrukumi ir kiberuzbrukumi, kuru mērķis ir apmānīt ML modeli ar ļaunprātīgu ievadi un tādējādi samazināt precizitāti un sliktu veiktspēju. Tātad, neskatoties uz savu nosaukumu, pretrunīgā ML nav mašīnmācīšanās veids, bet gan dažādas metodes, ko kibernoziedznieki jeb pretinieki izmanto, lai mērķētu uz ML sistēmām.

Šādu uzbrukumu galvenais mērķis parasti ir mānīt modeli, lai viņš izplatītu sensitīvu informāciju, nespēja atklāt krāpnieciskas darbības, radīt nepareizas prognozes vai sabojāt analīzi ziņojumi. Lai gan ir vairāki pretrunīgu uzbrukumu veidi, tie bieži ir vērsti uz dziļu, uz mācībām balstītu surogātpasta noteikšanu.

Jūs droši vien esat dzirdējuši par ienaidnieka uzbrukums vidū, kas ir jauna un efektīvāka izsmalcināta pikšķerēšanas tehnika, kas ietver privātas informācijas zādzību, sesijas sīkfailus un pat vairāku faktoru autentifikācijas (MFA) metožu apiešanu. Par laimi, jūs varat cīnīties ar tiem pikšķerēšanas izturīga MFA tehnoloģija.

Sacensību uzbrukumu veidi

Vienkāršākais veids, kā klasificēt pretuzbrukumu veidus, ir sadalīt tos divās galvenajās kategorijās:mērķtiecīgi uzbrukumi un nemērķtiecīgi uzbrukumi. Kā tiek ieteikts, mērķtiecīgiem uzbrukumiem ir konkrēts mērķis (piemēram, konkrētai personai), savukārt nemērķtiecīgiem uzbrukumiem nav paredzēts neviens īpašs: tie var mērķēt gandrīz uz jebkuru. Nav pārsteidzoši, ka nemērķtiecīgi uzbrukumi ir mazāk laikietilpīgi, bet arī mazāk veiksmīgi nekā to mērķtiecīgie uzbrukumi.

Šos divus veidus var iedalīt sīkāk balta kaste un melnā kaste pretrunīgie uzbrukumi, kur krāsa norāda uz zināšanām vai zināšanu trūkumu par mērķa ML modeli. Pirms iedziļināmies baltās un melnās kastes uzbrukumos, īsi apskatīsim izplatītākos pretuzbrukumu veidus.

  • Izvairīšanās: galvenokārt izmanto ļaunprātīgas programmatūras scenārijos, izvairīšanās no uzbrukumiem mēģina izvairīties no atklāšanas, slēpjot ļaunprātīgas programmatūras inficēto un surogātpasta e-pastu saturu. Izmantojot izmēģinājuma un kļūdu metodi, uzbrucējs manipulē ar datiem izvietošanas laikā un sabojā ML modeļa konfidencialitāti. Biometrisko datu viltošana ir viens no visizplatītākajiem izvairīšanās no uzbrukuma piemēriem.
  • Datu saindēšanās: To sauc arī par piesārņojošiem uzbrukumiem, kuru mērķis ir manipulēt ar ML modeli apmācības vai izvietošanas periodā un samazināt precizitāti un veiktspēju. Ieviešot ļaunprātīgu ievadi, uzbrucēji izjauc modeli un apgrūtina drošības profesionāļu iespējas noteikt datu parauga veidu, kas sabojā ML modeli.
  • Bizantijas vainas: šāda veida uzbrukums izraisa sistēmas pakalpojuma zaudēšanu bizantiešu kļūmes rezultātā sistēmās, kurām nepieciešama vienprātība starp visiem tās mezgliem. Kad kāds no tā uzticamajiem mezgliem kļūst negodīgs, tas var izraisīt pakalpojuma atteikuma (DoS) uzbrukumu un izslēgt sistēmu, neļaujot citiem mezgliem sazināties.
  • Modeļa ieguve: Izvilkšanas uzbrukumā pretinieks pārbaudīs melnās kastes ML sistēmu, lai iegūtu tās apmācības datus vai — sliktākajā gadījumā — pašu modeli. Pēc tam, turot rokās ML modeļa kopiju, pretinieks varētu pārbaudīt savu ļaunprogrammatūru pret pretvīrusu/pretvīrusu un izdomāt, kā to apiet.
  • Secinājumu uzbrukumi: Tāpat kā ar ekstrakcijas uzbrukumiem, arī šeit mērķis ir panākt, lai ML modelis nopludinātu informāciju par tā apmācības datiem. Tomēr pretinieks pēc tam mēģinās noskaidrot, kura datu kopa tika izmantota sistēmas apmācīšanai, lai viņi varētu izmantot tās ievainojamības vai novirzes.

Baltā kaste vs. Melnā kaste vs. Pelēkās kastes pretrunīgie uzbrukumi

Šos trīs pretinieku uzbrukumu veidus atšķir tas, cik daudz pretiniekiem ir zināšanas par to ML sistēmu iekšējo darbību, kurām viņi plāno uzbrukt. Lai gan baltās kastes metodei ir nepieciešama izsmeļoša informācija par mērķa ML modeli (tostarp tā arhitektūra un parametri), melnās kastes metodei nav nepieciešama informācija, un to var tikai novērot izejas.

Tikmēr pelēkās kastes modelis ir šo divu galējību vidū. Saskaņā ar to pretiniekiem var būt kāda informācija par datu kopu vai cita informācija par ML modeli, bet ne visa tā.

Kā jūs varat aizsargāt mašīnmācīšanos pret pretinieku uzbrukumiem?

Lai gan cilvēki joprojām ir izšķiroša kiberdrošības stiprināšanas sastāvdaļa,AI un ML ir iemācījušies atklāt un novērst ļaunprātīgus uzbrukumus— tie var palielināt ļaunprātīgu draudu noteikšanas precizitāti, lietotāju darbību uzraudzību, aizdomīga satura identificēšanu un daudz ko citu. Bet vai viņi var atvairīt pretinieku uzbrukumus un aizsargāt ML modeļus?

Viens no veidiem, kā mēs varam cīnīties ar kiberuzbrukumiem, ir apmācīt ML sistēmas atpazīt pretinieku uzbrukumus pirms laika, pievienojot piemērus to apmācības procedūrai.

Atšķirībā no šīs brutālā spēka pieejas, aizsardzības destilācijas metode iesaka izmantot primāro, efektīvāko modeli, lai noskaidrotu. izpētiet sekundārā, mazāk efektīva modeļa kritiskās iezīmes un pēc tam uzlabojiet sekundārā modeļa precizitāti ar primāro viens. ML modeļi, kas apmācīti ar aizsardzības destilāciju, ir mazāk jutīgi pret pretrunīgiem paraugiem, kas padara tos mazāk pakļautus izmantošanai.

Mēs varētu arī pastāvīgi modificēt algoritmus, ko ML modeļi izmanto datu klasifikācijai, kas varētu padarīt pretinieku uzbrukumus mazāk veiksmīgus.

Vēl viens ievērojams paņēmiens ir funkciju saspiešana, kas samazina pretiniekiem pieejamo meklēšanas vietu, “izspiežot” nevajadzīgās ievades funkcijas. Šeit mērķis ir samazināt viltus pozitīvus gadījumus un padarīt pretrunīgu piemēru noteikšanu efektīvāku.

Mašīnmācīšanās un mākslīgā intelekta aizsardzība

Pretendenti uzbrukumi mums ir parādījuši, ka daudzus ML modeļus var sagraut pārsteidzošos veidos. Galu galā pretrunīgā mašīnmācība joprojām ir jauna pētniecības joma kiberdrošības jomā, un tā ir saistīta ar daudzām sarežģītām AI un ML problēmām.

Lai gan nav maģiska risinājuma, lai aizsargātu šos modeļus pret visiem pretrunīgiem uzbrukumiem, Nākotnē, visticamāk, tiks piedāvātas progresīvākas metodes un gudrākas stratēģijas, lai cīnītos pret šo briesmīgo pretinieks.