Arvien vairāk uzņēmumu aizliedz ChatGPT darba vietā, bet kas slēpjas aiz aizliegumiem?
Neskatoties uz iespaidīgajām spējām, vairāki lielie uzņēmumi ir aizlieguši saviem darbiniekiem izmantot ChatGPT.
2023. gada maijā Samsung aizliedza izmantot ChatGPT un citus ģeneratīvos mākslīgā intelekta rīkus. Pēc tam 2023. gada jūnijā šim piemēram sekoja Austrālijas Sadraudzības banka, kā arī tādi uzņēmumi kā Amazon, Apple un JPMorgan Chase & Co. Dažas slimnīcas, advokātu biroji un valsts aģentūras ir arī aizliegušas darbiniekiem izmantot ChatGPT.
Tātad, kāpēc arvien vairāk uzņēmumu aizliedz ChatGPT? Šeit ir pieci galvenie iemesli.
1. Datu noplūdes
ChatGPT ir nepieciešams liels datu apjoms, lai apmācītu un darbotos efektīvi. Tērzēšanas robots tika apmācīts, izmantojot milzīgus datu apjomus, kas iegūti no interneta, un tas joprojām tiek apmācīts.
Saskaņā ar OpenAI palīdzības lapa, visi dati, tostarp konfidenciāla informācija par klientiem, komercnoslēpumi un sensitīvi darījumi informāciju, ko ievadāt tērzēšanas robotam, var pārskatīt tā pasniedzēji, kuri var izmantot jūsu datus, lai uzlabotu viņu sistēmas.
Uz daudziem uzņēmumiem attiecas stingri datu aizsardzības noteikumi. Rezultātā viņi ir piesardzīgi attiecībā uz personas datu kopīgošanu ar ārējām struktūrām, jo tas palielina datu noplūdes risku.
Turklāt OpenAI nepiedāvā nekādu nepārprotamu datu aizsardzības un konfidencialitātes garantiju. 2023. gada martā, OpenAI apstiprināja kļūda, kas dažiem lietotājiem ļauj skatīt tērzēšanas nosaukumus citu aktīvo lietotāju vēsturē. Lai gan šī kļūda tika novērsta un OpenAI uzsāka kļūdu novēršanas programmu, uzņēmums negarantē lietotāja datu drošību un privātumu.
Daudzas organizācijas izvēlas ierobežot darbiniekus izmantot ChatGPT, lai izvairītos no datu noplūdes, kas var kaitēt viņu reputācijai, radīt finansiālus zaudējumus un apdraudēt klientus un darbiniekus risks.
2. Kiberdrošības riski
Kamēr nav skaidrs, vai ChatGPT patiešām ir pakļauts kiberdrošības riskiem, pastāv iespēja, ka tā izvietošana organizācijā var radīt potenciālas ievainojamības, kuras var izmantot kiberuzbrucēji.
Ja uzņēmums integrē ChatGPT un tērzēšanas robota drošības sistēmā ir nepilnības, uzbrucēji var izmantot ievainojamības un ievadīt ļaunprātīgas programmatūras kodus. Turklāt ChatGPT spēja radīt cilvēkiem līdzīgas atbildes ir zelta ola pikšķerēšanas uzbrucējiem, kuri var pār kontu vai uzdodas par likumīgām personām, lai maldinātu uzņēmuma darbiniekus, lai viņi kopīgotu sensitīvus datus informāciju.
3. Personalizētu tērzēšanas robotu izveide
Neskatoties uz novatoriskajām funkcijām, ChatGPT var sniegt nepatiesu un maldinošu informāciju. Tā rezultātā daudzi uzņēmumi ir izveidojuši AI tērzēšanas robotus darba vajadzībām. Piemēram, Austrālijas Sadraudzības banka lūdza saviem darbiniekiem tā vietā izmantot Gen.ai — mākslīgā intelekta (AI) tērzēšanas robotu, kas izmanto CommBank informāciju, lai sniegtu atbildes.
Uzņēmumi, piemēram, Samsung un Amazon, ir izstrādājuši uzlabotus dabisko valodu modeļus, lai uzņēmumi varētu viegli izveidot un izvietot personalizētus tērzēšanas robotus, kuru pamatā ir esošie atšifrējumi. Izmantojot šos iekšējos tērzēšanas robotus, varat novērst juridiskās un reputācijas sekas, kas saistītas ar nepareizu datu apstrādi.
4. Regulas trūkums
Nozarēs, kurās uz uzņēmumiem attiecas normatīvie protokoli un sankcijas, ChatGPT normatīvo norādījumu trūkums ir sarkans karogs. Bez precīziem reglamentējošiem nosacījumiem, kas reglamentē ChatGPT izmantošanu, uzņēmumi var saskarties ar smagām juridiskām sekām, izmantojot AI tērzēšanas robotu savām darbībām.
Turklāt regulējuma trūkums var mazināt uzņēmuma atbildību un pārredzamību. Lielākā daļa uzņēmumu var būt apmulsuši, izskaidrojot AI valodas modeļa lēmumu pieņemšanas procesi un drošības pasākumi saviem klientiem.
Uzņēmumi ierobežo ChatGPT, baidoties no iespējamiem privātuma likumu un nozares specifisko noteikumu pārkāpumiem.
5. Darbinieku bezatbildīga lietošana
Daudzos uzņēmumos daži darbinieki paļaujas tikai uz ChatGPT atbildēm, lai radītu saturu un veiktu savus pienākumus. Tas rada slinkumu darba vidē un rosina radošumu un inovācijas.
Atkarība no AI var kavēt jūsu spēju kritiski domāt. Tas var arī kaitēt uzņēmuma uzticamībai, jo ChatGPT bieži sniedz neprecīzus un neuzticamus datus.
Lai gan ChatGPT ir jaudīgs rīks, tā izmantošana sarežģītu vaicājumu risināšanai, kam nepieciešamas konkrēta domēna zināšanas, var kaitēt uzņēmuma darbībai un efektivitātei. Daži darbinieki var neatcerēties pārbaudīt faktus un verificēt AI tērzēšanas robota sniegtās atbildes, uzskatot atbildes kā visiem piemērotu risinājumu.
Lai mazinātu šādas problēmas, uzņēmumi aizliedz tērzēšanas robotu, lai darbinieki varētu koncentrēties uz saviem uzdevumiem un piedāvāt lietotājiem bez kļūdām risinājumus.
ChatGPT aizliegumi: labāk droši nekā atvainoties
Uzņēmumi, kas aizliedz ChatGPT, norāda uz kiberdrošības riskiem, darbinieku ētikas standartiem un normatīvo aktu atbilstības problēmām. ChatGPT nespēja mazināt šīs problēmas, vienlaikus nodrošinot nozares risinājumus, liecina par tā ierobežojumiem un nepieciešamību turpināt attīstību.
Tikmēr uzņēmumi pāriet uz alternatīviem tērzēšanas robotiem vai vienkārši ierobežo darbiniekus to izmantot ChatGPT, lai izvairītos no iespējamiem datu pārkāpumiem un neuzticamiem drošības un regulējošiem protokoliem, kas saistīti ar tērzēšanas robots.