AI rīki, piemēram, ChatGPT, ir lieliski, taču ir vairāki iemesli, kāpēc lasīto vajadzētu uztvert ar šķipsniņu sāls.

AI pārveido pasauli, kādu mēs to pazīstam, un tās ietekme ir jūtama visās nozarēs. Tomēr ne visas šīs izmaiņas noteikti ir pozitīvas. Lai gan AI piedāvā aizraujošas jaunas iespējas daudzās jomās, mēs nevaram ignorēt faktu, ka tam trūkst raksturīgā morālā kompasa vai faktu pārbaudes sistēmas, kas vadītu tā lēmumu pieņemšanu.

Tāpēc jums vienmēr vajadzētu pārbaudīt faktus, viss, kas jums tiek teikts, jo pasaule kļūst arvien vairāk orientēta uz AI. Daži AI rīki var manipulēt ar informāciju, pilnībā pārprast kontekstu un vienlaikus pārliecinoši kļūdīties, tāpēc akli uzticēties AI ir slikta ideja.

1. AI var pārliecinoši kļūdīties

Cilvēki arvien vairāk paļaujas uz AI tērzēšanas roboti tādiem uzdevumiem kā rakstīšana, ieplānojot tikšanās un pat pieņemot svarīgus lēmumus. Tomēr šo tērzēšanas robotu ērtības bieži vien rada ievērojamas izmaksas — tie var droši kļūdīties.

Lai to ilustrētu, mēs lūdzām ChatGPT pastāstīt mums par pirmo grāmatu, kas rakstīta Python apguvei. Lūk, kā tas atbildēja:

instagram viewer

Vai uztvērāt kļūdu? Kad mēs par to sazinājāmies ar ChatGPT, tas ātri izlaboja sevi. Diemžēl, lai gan tā atzina savu kļūdu, tas parāda, kā AI dažreiz var būt pilnīgi nepareizs.

AI tērzēšanas robotiem ir ierobežota informācija, taču tie ir ieprogrammēti reaģēt jebkurā veidā. Viņi paļaujas uz saviem apmācības datiem un var būt arī no jūsu mijiedarbības ar mašīnmācīšanos. Ja AI atsakās atbildēt, tas nevar mācīties vai labot sevi. Tāpēc AI reizēm ir pārliecināti nepareizi; tā mācās no savām kļūdām.

Lai gan šobrīd tā ir tikai AI būtība, jūs varat redzēt, kā tas var kļūt par problēmu. Lielākā daļa cilvēku nepārbauda savus Google meklēšanas vaicājumus, un tas pats notiek ar tādiem tērzēšanas robotiem kā ChatGPT. Tas var novest pie dezinformācijas, un mums jau ir daudz tās, kas jāapskata, un mēs nonākam pie otrā punkta.

2. To var viegli izmantot, lai manipulētu ar informāciju

Nav noslēpums, ka mākslīgais intelekts var būt neuzticams un pakļauts kļūdām, taču viena no mānīgākajām iezīmēm ir tā tendence manipulēt ar informāciju. Problēma ir tā, ka mākslīgajam intelektam trūkst niansētas izpratnes par jūsu kontekstu, kas liek tai sagrozīt faktus, lai tie atbilstu saviem mērķiem.

Tieši tas notika ar Microsoft Bing Chat. Viens lietotājs vietnē Twitter pieprasīja jaunās Avatar filmas izrādīšanas laikus, taču tērzēšanas robots atteicās sniegt informāciju, apgalvojot, ka filma vēl nav izlaista.

Protams, varat to viegli norakstīt kā kļūdu vai vienreizēju kļūdu. Tomēr tas nemaina faktu, ka šie AI rīki ir nepilnīgi, un mums jārīkojas piesardzīgi.

3. Tas var kavēt jūsu radošumu

Daudzi profesionāļi, piemēram, rakstnieki un dizaineri, tagad izmanto AI, lai palielinātu efektivitāti. Tomēr ir svarīgi saprast, ka mākslīgais intelekts ir jāuztver kā rīks, nevis saīsne. Lai gan pēdējais noteikti izklausās vilinošs, tas var nopietni ietekmēt jūsu radošumu.

Ja AI tērzēšanas roboti tiek izmantoti kā saīsne, cilvēki mēdz kopēt un ielīmēt saturu, nevis radīt unikālas idejas. Šī pieeja varētu šķist vilinoša, jo tā ietaupa laiku un pūles, bet nespēj iesaistīt prātu un veicināt radošo domāšanu.

Piemēram, dizaineri var izmantojiet Midjourney AI, lai radītu mākslu, taču paļaušanās tikai uz AI var ierobežot radošuma iespējas. Tā vietā, lai pētītu jaunas idejas, jūs varat replicēt esošos dizainus. Ja esat rakstnieks, varat izpētei izmantojiet ChatGPT vai citus AI tērzēšanas robotus, bet, ja izmantosit to kā saīsni satura ģenerēšanai, jūsu rakstīšanas prasmes sastings.

AI izmantošana, lai papildinātu savu pētījumu, atšķiras no tikai paļaušanās uz to, lai radītu idejas.

4. AI var viegli tikt ļaunprātīgi izmantots

AI ir radījis daudzus sasniegumus dažādās jomās. Tomēr, tāpat kā jebkurai tehnoloģijai, pastāv arī nepareizas izmantošanas risks, kas var izraisīt nopietnas sekas.

AI spēja pazemot, uzmākties, iebiedēt un apklusināt indivīdus ir kļuvusi par nopietnu problēmu. AI ļaunprātīgas izmantošanas piemēri ir dziļo viltojumu izveide un pakalpojumu liegšanas (DoS) uzbrukumiem, cita starpā.

Satraucoša tendence ir AI ģenerētu dziļu viltojumu izmantošana, lai izveidotu nepārspējamas sievietes fotoattēlus. Kibernoziedznieki izmanto arī AI vadītus DoS uzbrukumus, lai neļautu likumīgiem lietotājiem piekļūt noteiktiem tīkliem. Šādi uzbrukumi kļūst arvien sarežģītāki, un tos ir grūtāk apturēt, jo tiem piemīt cilvēkiem līdzīgas īpašības.

AI iespēju kā atvērtā pirmkoda bibliotēku pieejamība ir ļāvusi ikvienam piekļūt tādām tehnoloģijām kā attēlu un sejas atpazīšana. Tas rada ievērojamu kiberdrošības risku, jo teroristu grupas varētu izmantot šīs tehnoloģijas, lai veiktu terora aktus

5. Ierobežota konteksta izpratne

Kā minēts iepriekš, AI ir ļoti ierobežota izpratne par kontekstu, kas var būt ievērojams izaicinājums lēmumu pieņemšanā un problēmu risināšanā. Pat ja jūs sniedzat AI ar kontekstuālu informāciju, tas var nepamanīt nianses un sniegt neprecīzu vai nepilnīgu informāciju, kas var novest pie nepareiziem secinājumiem vai lēmumiem.

Tas ir tāpēc, ka AI darbojas ar iepriekš ieprogrammētiem algoritmiem, kas datu analīzei un apstrādei paļaujas uz statistikas modeļiem un modeļu atpazīšanu.

Piemēram, apsveriet iespēju izveidot tērzēšanas robotu, kas ir ieprogrammēts, lai palīdzētu klientiem ar jautājumiem par produktu. Lai gan tērzēšanas robots var atbildēt uz pamata jautājumiem par produkta funkcijām un specifikācijām, tas var grūtības sniegt personalizētus padomus vai ieteikumus, pamatojoties uz klienta unikālajām vajadzībām un vēlmēm.

6. Tas nevar aizstāt cilvēka spriedumu

Meklējot atbildes uz sarežģītiem jautājumiem vai pieņemot lēmumus, pamatojoties uz subjektīvām vēlmēm, paļauties tikai uz AI var būt riskanti.

Lūgt AI sistēmai definēt draudzības jēdzienu vai izvēlēties vienu no diviem elementiem, pamatojoties uz subjektīviem kritērijiem, var būt veltīgs uzdevums. Tas ir tāpēc, ka mākslīgajam intelektam trūkst spējas ņemt vērā cilvēka emocijas, kontekstu un nemateriālos elementus, kas ir būtiski, lai izprastu un interpretētu šādus jēdzienus.

Piemēram, ja lūdzat mākslīgā intelekta sistēmai izvēlēties starp divām grāmatām, tā var ieteikt grāmatu ar augstāku vērtējumus, taču tajā nevar ņemt vērā jūsu personīgo gaumi, lasīšanas vēlmes vai mērķi, kādam tas ir nepieciešams grāmata.

No otras puses, recenzents var sniegt niansētāku un personalizētāku grāmatas apskatu, novērtējot tās literārā vērtība, atbilstība lasītāja interesēm un citi subjektīvi faktori, kurus nevar izmērīt objektīvi.

Esiet piesardzīgs ar mākslīgo intelektu

Lai gan AI ir izrādījies neticami spēcīgs instruments dažādās jomās, ir svarīgi apzināties tā ierobežojumus un iespējamās novirzes. Akli uzticēties mākslīgajam intelektam var būt riskanti, un tam var būt ievērojamas sekas, jo tehnoloģija joprojām ir sākuma stadijā un ir tālu no ideāla.

Ir ļoti svarīgi atcerēties, ka AI ir rīks, nevis cilvēku zināšanu un spriedumu aizstājējs. Tāpēc mēģiniet to izmantot tikai kā papildinājumu pētījumiem, bet nepaļaujieties tikai uz to svarīgu lēmumu pieņemšanā. Kamēr jūs zināt trūkumus un atbildīgi izmantojat AI, jums jābūt drošās rokās.