Samsung darbinieki nejauši nopludināja privātā uzņēmuma datus, izmantojot ChatGPT — tas ir piemērs tam, kāpēc AI ir tik liels drauds jūsu privātumam un drošībai.
ChatGPT ir kļuvusi par nopietnu drošības un privātuma problēmu, jo pārāk daudzi no mums neprātīgi dalās ar savu privāto informāciju par to. ChatGPT reģistrē katru sarunu, kas ar to notiek, tostarp visus jūsu kopīgotos personas datus. Tomēr jūs to nezinātu, ja vien neesat izpētījis OpenAI konfidencialitātes politiku, pakalpojumu sniegšanas noteikumus un FAQ lapu, lai to apkopotu.
Ir pietiekami bīstami nopludināt savu informāciju, taču, ņemot vērā to, ka milzīgi uzņēmumi katru dienu informācijas apstrādei izmanto ChatGPT, tas varētu būt datu noplūdes katastrofas sākums.
Samsung nopludināja konfidenciālu informāciju, izmantojot ChatGPT
Saskaņā ar Gizmodo, Samsung darbinieki trīs reizes 20 dienu laikā kļūdaini nopludināja konfidenciālu informāciju, izmantojot ChatGPT. Šis ir tikai viens piemērs tam, cik viegli uzņēmumiem ir kompromitēt privāto informāciju.
ChatGPT ir publiski kritizēts par privātuma problēmām, tāpēc Samsung pieļāva to, ka tas ir ļoti neuzmanīgs. Dažas valstis pat ir aizliegušas ChatGPT lai aizsargātu savus pilsoņus, līdz tas uzlabos savu privātumu, tāpēc jūs domājat, ka uzņēmumi būtu uzmanīgāki attiecībā uz to, kā viņu darbinieki to izmanto.
Par laimi, šķiet, ka Samsung klienti ir drošībā — vismaz pagaidām. Pārkāptie dati attiecas tikai uz iekšējo uzņēmējdarbības praksi, dažiem patentētiem kodiem, ar kuriem tie tika novērsti, un komandas sanāksmes protokoliem, ko visi ir iesnieguši darbinieki. Tomēr darbiniekiem būtu bijis tikpat viegli nopludināt patērētāju personisko informāciju, un tas ir tikai laika jautājums, līdz mēs redzēsim, ka kāds cits uzņēmums dara tieši to. Ja tas notiks, mēs varētu gaidīt milzīgs pikšķerēšanas gadījumu skaita pieaugums un identitātes zādzību.
Šeit ir arī vēl viens riska slānis. Ja darbinieki izmanto ChatGPT, lai meklētu kļūdas, piemēram, Samsung noplūdes gadījumā, kods, ko viņi ieraksta tērzēšanas lodziņā, arī tiks saglabāts OpenAI serveros. Tas var novest pie pārkāpumiem, kam ir liela ietekme uz uzņēmumiem, kas novērš neizlaisto produktu un programmu problēmas. Mēs pat varam redzēt, ka tiks nopludināta tāda informācija kā nepublicēti biznesa plāni, turpmākie laidieni un prototipi, kā rezultātā tiks zaudēti lieli ieņēmumi.
Kā notiek ChatGPT datu noplūde?
ChatGPT privātuma politika skaidri norāda, ka tas ieraksta jūsu sarunas un koplieto žurnālus ar citiem uzņēmumiem un saviem AI treneriem. Kad kāds (piemēram, Samsung darbinieks) dialoglodziņā ieraksta konfidenciālu informāciju, tā tiek ierakstīta un saglabāta ChatGPT serveros.
Maz ticams, ka darbinieki to ir darījuši ar nolūku, bet tas ir biedējošākais. Lielāko daļu datu pārkāpumu izraisa cilvēka kļūdas. Bieži vien tas ir tāpēc, ka uzņēmums nav spējis izglītot savus darbiniekus par privātuma riskiem, izmantojot tādus rīkus kā AI.
Piemēram, ja viņi tērzēšanā ielīmē lielu kontaktpersonu sarakstu un lūdz AI izolēt klientu tālruņu numurus no datiem, ChatGPT ierakstos šos vārdus un tālruņu numurus. Jūsu privātā informācija ir to uzņēmumu žēlastībā, ar kuriem jūs to neesat kopīgojis, un tie var nebūt pietiekami labi aizsargāti, lai nodrošinātu jūsu drošību. Ir dažas lietas, ko varat darīt pasargājiet sevi pēc datu pārkāpuma, taču uzņēmumiem ir jābūt atbildīgiem par noplūžu novēršanu.
Stāsta morāle: nestāstiet ChatGPT savus noslēpumus
Varat droši izmantot ChatGPT simtiem dažādu uzdevumu, taču konfidenciālas informācijas kārtošana nav viens no tiem. Jums jābūt uzmanīgiem, lai tērzēšanas lodziņā neierakstītu neko personisku, tostarp savu vārdu, adresi, e-pastu un tālruņa numuru. Šo kļūdu ir viegli izdarīt, tāpēc rūpīgi pārbaudiet uzvednes, lai pārliecinātos, ka nekas nav nejauši noticis.
Samsung noplūde parāda, cik reāls ir ar ChatGPT saistītas datu noplūdes risks. Diemžēl mēs redzēsim vairāk šāda veida kļūdu, iespējams, ar daudz lielāku ietekmi, jo AI kļūst par lielāko daļu uzņēmumu procesu galveno sastāvdaļu.