Daudzi no mums ChatGPT izmanto vieglprātīgi, taču tas ir saistīts ar nopietnām drošības un privātuma problēmām, par kurām jums jāzina.
2023. gada janvārī, tikai divus mēnešus pēc palaišanas, ChatGPT (ģeneratīvais iepriekš apmācīts transformators) kļuva par visu laiku visstraujāk augošo lietojumprogrammu, piesaistot vairāk nekā 100 miljonus lietotāju.
OpenAI uzlabotais tērzēšanas robots, iespējams, ir pastiprinājis sabiedrības interesi par mākslīgo intelektu, taču daži ir nopietni apdomājuši iespējamos drošības riskus, kas saistīti ar šo produktu.
ChatGPT: drošības apdraudējumi un problēmas
Tehnoloģija, kas ir ChatGPT un citu tērzēšanas robotu pamatā, var būt līdzīga, taču ChatGPT ir sava kategorija. Šīs ir lieliskas ziņas, ja plānojat to izmantot kā sava veida personīgo asistentu, taču tas ir satraucoši, ja uzskatāt, ka to izmanto arī apdraudējuma dalībnieki.
Kibernoziedznieki var izmantojiet ChatGPT, lai rakstītu ļaunprātīgu programmatūru, veidojiet krāpnieciskas vietnes, ģenerējiet pikšķerēšanas e-pastus, izveidojiet viltus ziņas un tā tālāk. Šī iemesla dēļ ChatGPT var būt lielāks kiberdrošības risks nekā ieguvums, kā
Pīkstošs dators ielieciet to analīzē.Tajā pašā laikā pastāv nopietnas bažas, ka pašam ChatGPT ir noteiktas nenovērstas ievainojamības. Piemēram, 2023. gada martā parādījās ziņojumi par to, ka daži lietotāji var skatīt citu sarunu nosaukumus. Kā The Verge tajā laikā tika ziņots, OpenAI izpilddirektors Sems Altmens paskaidroja, ka problēmu izraisīja "kļūme atvērtā pirmkoda bibliotēkā".
Tas tikai uzsver, cik svarīgi tas ir ierobežot to, ko kopīgojat ar ChatGPT, kas pēc noklusējuma apkopo satriecošu datu apjomu. Tehnikas behemots Samsung to uzzināja cietā veidā, kad darbinieku grupa, kas bija izmantojusi tērzēšanas robotu kā palīgu, nejauši nopludināja tai konfidenciālu informāciju.
Vai ChatGPT apdraud jūsu privātumu?
Drošība un privātums nav viens un tas pats, taču tie ir cieši saistīti un bieži krustojas. Ja ChatGPT apdraud drošību, tad tas apdraud arī privātumu un otrādi. Bet ko tas nozīmē praktiskāk? Kādas ir ChatGPT drošības un privātuma politikas?
No interneta tika izvilkti miljardiem vārdu, lai izveidotu ChatGPT plašo datubāzi. Šī datubāze tiek nepārtraukti paplašināta, jo ChatGPT saglabā visu, ko lietotāji kopīgo. ASV bāzēta bezpeļņas organizācija Veselais saprāts piešķīra ChatGPT privātuma novērtējuma punktu 61 procentam, norādot, ka tērzēšanas robots apkopo personiski identificējamu informāciju (PII) un citus sensitīvus datus. Lielākā daļa šo datu tiek glabāti vai kopīgoti ar noteiktām trešajām pusēm.
Jebkurā gadījumā jums jābūt uzmanīgiem, izmantojot ChatGPT, jo īpaši ja jūs to izmantojat darbam, vai apstrādāt sensitīvu informāciju. Parasti jums nevajadzētu kopīgot ar robotu to, ko jūs nevēlaties, lai sabiedrība zinātu.
Ar ChatGPT saistīto drošības risku novēršana
Mākslīgais intelekts kādā brīdī tiks regulēts, taču ir grūti iedomāties pasauli, kurā tas neradītu draudus drošībai. Tāpat kā visas tehnoloģijas, to var — un tiks — ļaunprātīgi izmantot.
Nākotnē tērzēšanas roboti kļūs par meklētājprogrammu, balss palīgu un sociālo tīklu neatņemamu sastāvdaļu, norāda Malwarebytes. Viņiem būs sava loma dažādās nozarēs, sākot no veselības aprūpes un izglītības līdz finansēm un izklaidei.
Tas radikāli pārveidos mūsu zināmo drošību. Taču, kā atzīmēja arī Malwarebytes, ChatGPT un līdzīgus rīkus var izmantot arī kiberdrošības speciālisti; piemēram, lai meklētu programmatūras kļūdas vai "aizdomīgus modeļus" tīkla darbībā.
Izpratnes veicināšana ir galvenais
Ko ChatGPT spēs pēc pieciem vai 10 gadiem? Mēs varam tikai spekulēt, taču mēs noteikti zinām, ka mākslīgais intelekts nekur nevirzās.
Parādoties vēl progresīvākiem tērzēšanas robotiem, veselām nozarēm būs jāpielāgojas un jāiemācās tos izmantot atbildīgi. Tas ietver kiberdrošības nozari, ko jau veido AI. Izpratnes veicināšana par drošības riskiem, kas saistīti ar mākslīgo intelektu, ir ļoti svarīgi, un tas palīdzēs nodrošināt, ka šīs tehnoloģijas tiek izstrādātas un izmantotas ētiskā veidā.