Šo ziņu sponsorē Incogni.
Paskaties sev apkārt; vide ir pārņemta ar AI un tā gandrīz brīnumainajām iespējām. AI jeb mākslīgais intelekts ļauj datoram vai mašīnai spriest, mācīties un rīkoties saprātīgi kā cilvēkam.
Patiešām, ChatGPT un citas ģeneratīvas AI tehnoloģijas izplatās gandrīz visās nozarēs — no veselības aprūpes, banku darbības un ražošanas līdz radošai mākslai un patērētāju programmatūrai.
Bet vai šī spēcinošā jaunā nākotne, kas plaukst uz datiem, dos mums mūsu pamattiesības uz privātumu?
Ja jums prātā ienāk līdzīgas domas, jūsu bažas par privātumu saistībā ar mākslīgo intelektu ir dabiskas. Jūsu privātums šobrīd ir svarīgāks nekā jebkad agrāk šajā digitālajā laikmetā.
Kādi ir ar AI saistītie privātuma riski?
Saskaņā ar Pew Research aptaujas, katrs ceturtais amerikānis katru dienu tiek lūgts piekrist privātuma politikai. Tomēr tikai 22% pilnībā izlasa privātuma politikas.
Apskatīsim tādus AI pakalpojumus kā ChatGPT, Google Cloud AI, Jupyter, Viso Suite un Chrorus.ai Viņu privātuma politikās ir norādīts, ka apkopojiet savu personisko informāciju, saturu, kuru skatāt vai ar kuru mijiedarbojaties, un pat iegūstiet datus no sociālo mediju platformām un publiskajām vietnēm datubāzēm.
Turklāt jūsu dati tiek izmantoti viņu AI modeļu apmācībai.
Tātad jūs varat izbaudīt e-pasta ziņojumu un prezentāciju rakstīšanu dažu sekunžu laikā; tērzēt ar klientu apkalpošanas robotu; virtuāli pielaikot aksesuārus iepirkšanās laikā; vai vienkārši Google, jo reklāmas, kuru pamatā ir jūsu intereses, seko jums tīmeklī.
Šīs darbības nodrošina jūsu dati, kas tiek apkopoti katru minūti. Ja jūs to uzskatāt par mākslīgo intelektu, kas aizskar jūsu privātumu, jūs nekļūdāties.
Lai gan AI uzņēmumi apgalvo, ka jūsu informācija ir droša, daudzi kibernoziedznieku veiktie datu pārkāpumi ir izraisījuši identitātes zādzību, finansiālus zaudējumus un cietušo reputācijas bojājumus visā pasaulē.
Secinājumi par Surfshark globālās datu pārkāpumu statistikas pētījums liecina, ka ASV kopš 2004. gada datu pārkāpumu dēļ ir atklāti vairāk nekā 2,6 miljardi ierakstu.
Un lielākā daļa AI modeļu ir apmācīti, izmantojot lielu datu kopu no publiskiem avotiem, no kuriem lielākā daļa ir neobjektīvi. Šāda neobjektivitāte var izraisīt nopietnas sekas, piemēram, jūsu tiesību uz privātumu pārkāpumu.
Privātuma juridiskās un ētiskās sekas mākslīgā intelekta laikmetā
Vai mūsu privātuma likumi attiecas uz AI? Saskaņā ar Amerikas Advokātu asociācijas aplāde Attiecībā uz AI regulējumu ASV pašlaik nav visaptverošu federālo tiesību aktu, kas veltīts tikai AI regulējumam.
Eiropas Savienība ir pieņēmusi AI likumu, saskaņā ar kuru regula palielināsies proporcionāli iespējamam apdraudējumam privātumam un drošībai, ko rada AI sistēma. Cerams, ka šis AI likums mudinās arī ASV, Apvienoto Karalisti un citas valstis pieņemt savus likumus.
Tomēr mākslīgā intelekta regulēšana un privātuma aizsardzība rada daudzas problēmas, jo AI algoritmi ir sarežģīti.
Otrkārt, lielākā daļa spēkā esošo privātuma likumu ir balstīti uz patērētāju izvēles modeli, kurā tiek pieņemts paziņojums un piekrišana. Konfidencialitātes politikas ir piemērs, ko klienti piekrīt, bet reti izlasa to pilnībā.
Turklāt personas, kuras pārdod mākslīgā intelekta revolūcijā, var labprātīgi izpaust privātu informāciju, pārkāpjot mērķi nodrošināt datu privātumu no mākslīgā intelekta.
Ideālā gadījumā mūsu jaunajai AI virzītajai nākotnei vajadzētu būt balstītai arī uz ētiku, lai aizsargātu mūsu datu privātumu. Tam jābūt drošam, godīgam, objektīvam un izdevīgam ikvienam. Radītājiem un izstrādātājiem ir jāapmāca AI modeļi, izmantojot dažādus datus.
Lai nopelnītu mūsu uzticību, AI modeļiem ir jābūt pārredzamiem attiecībā uz lēmumiem, kas pieņemti, izmantojot mūsu datus. Tā kā mākslīgais intelekts jau aizvieto ievērojamu darbaspēku, mākslīgā intelekta attīstībai vajadzētu radīt labākas darba vietas.
Privātuma aizsardzība AI vadītā pasaulē
Jums vajadzētu būt iespējai koplietot vajadzīgos personas datus. AI uzņēmumiem ir jāievieš uzlaboti datu aizsardzības pasākumi, lai nodrošinātu, ka jūsu informācija joprojām ir droša un privāta.
Iebūvētā privātuma principi būtu jāintegrē visās darbībās, visās darbībās un apstrādē, tādējādi nodrošinot datu privātuma aizsardzību visā AI sistēmas dzīves ciklā.
Turklāt stingriem likumiem un noteikumiem būtu jāregulē mākslīgā intelekta modeļi un jauni AI uzņēmumi.
Pirmajā UNESCO izstrādātajā globālajā standartā tiesības uz privātumu un datu aizsardzību ir viens no 10 šī ieteikuma pamatprincipiem AI tehnoloģiju izveidei.
Jūsu loma jūsu privātuma aizsardzībā
Saskaņā ar Surfshark attieksme pret privātuma aptauju 2022. gadā, 90% interneta lietotāju piekrīt, ka tiešsaistes privātums viņiem ir svarīgs. Un 32% apgalvo, ka pakalpojumu kvalitāte ir svarīgāka par privātumu.
Ja jums ir jāizpēta jaunākā AI tehnoloģija, lai strādātu ātrāk, dodieties uz to. Taču veltiet dažas minūtes, lai izlasītu tās privātuma politiku. Un meklējiet datu koplietošanas atteikšanos.
Sāciet pārvaldīt savu privātumu, turot ierīci rokā vai datorā. Pārlūkošanai izmantojiet VPN un liedziet krātuves atļaujas lietotnēm, kuras neizmantojat.
Vai zinājāt, ka varat regulāri notīrīt savu digitālo pēdu? Un atteikties no datu bāzēm datu brokeri kas vāc jūsu personisko informāciju?
Atgrieziet savu privātumu, izmantojot Incogni
Datu brokeri vienmēr cenšas nozagt jūsu personisko informāciju no publiskajiem ierakstiem un jūsu pārlūkošanas paradumiem. Ja esat praktiski izmēģinājis saulesbrilles, arī jūsu seja tiks iekļauta datu bāzē.
Incogni uzskaitīti datu brokeri, kuriem, iespējams, ir informācija par klientiem, piemēram, sociālās apdrošināšanas numurs, fiziskā adrese, veselības informācija, tālruņa numurs vai e-pasta adrese. Šādi dati tiek pārdoti investīciju, veselības aprūpes, finanšu, mārketinga vai personāla atlases uzņēmumiem. Vai arī izmantoja, lai jūs izkrāptu vai notvertu vaļu medību mēģinājumos.
Tas viss var izraisīt nevēlamas reklāmas, ietekmēt jūsu aizdevuma vai apdrošināšanas likmes un palielināt kiberuzbrukumu risku.
Taču Incogni nosūta datu noņemšanas pieprasījumus datu brokeriem jūsu vārdā pat pēc jūsu datu dzēšanas, jo datu brokeri atkal sāk vākt jūsu informāciju.
Varat pārraudzīt procesu un skatīt potenciālās atrastās datu bāzes, nosūtītos pieprasījumus un izpildītos pieprasījumus savā lietotājam draudzīgajā inkognito informācijas panelī.
Tagad varat atsaukt savu privātumu, izmantojot a 1 gada Incogni abonements ar 50% atlaidi— tikai USD 6,49 mēnesī — un saglabājiet savus datus ārpus tirgus un drošībā.
AI un jūsu privātums: nepieciešamība pēc revolucionāra līdzsvara
Neapšaubāmi, šī jaunā mākslīgā intelekta nākotne ir pakļauta privātuma riskiem, tāpēc ir svarīgi tos risināt. Un Incogni varētu būt izeja.
Patiešām, pārmaiņu ritenis mākslīgā intelekta uzņēmumu regulēšanai un jūsu privātuma aizsardzībai ir sācis ripot. Cerams, ka tā kļūs par tādu revolūciju kā AI un piepildīs vajadzību pēc līdzsvarotas pieejas AI attīstībai un privātuma aizsardzībai.
Šī ir sponsorēta ziņa. Šajā rakstā izteiktās produktu izvēles un viedokļi ir no sponsora, un tie neatspoguļo MakeUseOf vai tā darbinieku redakcionālos virzienus.