Dažu pēdējo gadu laikā vien AI iespējas ir krasi attīstījušās. Mūsdienās mēs varam izmantot AI, lai radītu mākslu, rakstītu stāstus, uzzinātu par pasauli un daudz ko citu. Bet vai tas viss notiek pārāk ātri? Vai AI attīstās pārāk ātri, un kādas pazīmes liecina par to?

Kāpēc cilvēki ir noraizējušies par AI?

2023. gada marta beigās Dzīves nākotnes institūts tiešsaistē publicēja dokumentu ar nosaukumu "Pārtraukt milzu AI eksperimentus: atklāta vēstule". Dokumentā tika ietverti argumenti pret mākslīgā intelekta attīstību pēc GPT-4, OpenAI jaunākās ar AI darbināma tērzēšanas robota iterācijas, sarežģītības.

Vēstulē tika rakstīts, ka "AI sistēmas ar cilvēku konkurētspējīgu intelektu var radīt nopietnus riskus sabiedrībai un cilvēcei." ka "jaudīgas AI sistēmas ir jāizstrādā tikai tad, kad esam pārliecināti, ka to ietekme būs pozitīva un to riski būs tādi pārvaldāms."

Vairākas ievērojamas figūras tehnoloģiju jomā, tostarp Stīvs Vozņaks un Elons Masks ir parakstījis vēstuli un vēlas apturēt AI izstrādi

instagram viewer
. Šis lūgums apturēt mākslīgā intelekta attīstību ir licis apšaubīt to, cik bīstams AI kļūst un kādus riskus tas rada cilvēku dzīvībai.

Tātad, kādas pazīmes liecina, ka AI virzās pārāk ātri?

1. Sacensības ar cilvēkiem

Mēs jau esam redzējuši, ka tehnoloģija neskaitāmos scenārijos aizstāj cilvēkus. Dodoties uz ātrās ēdināšanas restorānu, tagad varat pasūtīt, izmantojot datora ekrānu, un, ja vēlaties iegādāties pārtikas preces, varat norēķināties, izmantojot automatizētu sistēmu. Tas var būt ātrs un ērts risinājums, taču, tā kā automatizācija dažādās nozarēs kļūst arvien svarīgāka, nepieciešamība pēc cilvēkresursiem samazinās.

Šeit sākas problēma. Protams, cilvēkiem ir jāstrādā, lai sevi uzturētu, taču automatizācijas pieaugums to padara daudz grūtāku. Tas jo īpaši attiecas uz minimālās algas darbiniekiem, piemēram, ēdināšanas, ražošanas un mazumtirdzniecības nozarē strādājošajiem. Pamatuzdevumus, piemēram, pasūtījumu pārbaudi, kravu paņemšanu un tīrīšanu, var veikt mašīnas. AI integrācija nozīmē, ka drīz mums, iespējams, vairs nebūs vajadzīgi operatori šai tehnoloģijai.

Par to ziņoja FormStack ka 76% uzņēmumu izmanto automatizāciju ikdienas darbplūsmu standartizēšanai vai automatizēšanai. Un, ar Zapjērs ziņojot, ka 94 % darbinieku ir paziņojuši, ka viņu darbs ir saistīts ar atkārtotiem un laikietilpīgiem uzdevumiem, Ar AI darbināma automatizācija varētu ļoti viegli kļūt par lielāko daļu no globālā darbaspēka nozares.

2. Cilvēka slinkuma veicināšana

Viena no galvenajām AI priekšrocībām ir tā, ka tā var vienkāršot tik daudzus uzdevumus. Taču šī ērtība ļoti viegli var piekāpties slinkumam. Un dažos gadījumos tas jau ir noticis.

Ņemiet, piemēram, ChatGPT. Varat izmantot ChatGPT, lai veiktu dažādas darbības piemēram, eseju rakstīšana, tēmu izpēte, joku veidošana, teksta tulkošana un daudz kas cits. Pakalpojums, kas var ātri izpildīt uzdevumus jūsu vietā, ir lieliski, taču tas arī liek mums nonākt pašapmierinātībā. Šādi kavēšanās centieni un radošums noteikti var negatīvi ietekmēt cilvēci kopumā, kas ir galvenais iemesls, kāpēc tik daudzi cilvēki ir noraizējušies par AI.

Mēs esam tik ļoti pieraduši pie AI darbināmiem pakalpojumiem mūsdienās, un, protams, esam tiem ļoti uzticējušies. Piemēram, Microsoft virtuālais palīgs Cortana izmanto mašīnmācīšanos un AI, lai izpildītu lietotāju komandas. Daudzi citi virtuālie palīgi, tostarp Apple Siri, arī izmanto AI, lai darbotos.

Uzticēšanās šai tehnoloģijai var būt droša, taču patiesībā to nevar zināt, jo īpaši ņemot vērā to, ka AI joprojām ir ļoti attīstības stadijā.

3. Viltus informācijas izplatīšana

Attēla kredīts: Deep Homage/Flickr

Plašākajās jomās AI ir ieguvusi lielu slavu, pateicoties spējai radīt mākslu, attēlus un video. Ar AI darbināmus pakalpojumus var izmantot ne tikai mākslas radīšanai, bet tie var arī radīt īpaši pretrunīgu mediju veidu, kas pazīstams kā dziļi viltojumi. Deepfake ir videoklipi, kuros cilvēka seja tiek uzklāta uz citas personas ķermeņa.

Tas izklausās diezgan jautri, taču to var ļoti viegli izmantot ļaunprātīgi.

Jau tagad ir pieejami tūkstošiem videoklipu, kuros redzamas slavenības un politiskas figūras, kuras, izmantojot dziļus viltojumus, saka neticami netiklas un nepiedienīgas lietas. Lai gan dažus dziļus viltojumus ir ļoti viegli identificēt, daži ir tik izsmalcināti, ka ir grūti noteikt, vai tie ir īsti vai nē. Kad tas notiek, cilvēki var pieņemt, ka publiska persona ir kaut ko teikusi, ko patiesībā viņi nekad nav teikuši.

Pamatojoties uz to, cilvēki izteiks viedokli par šiem videoklipiem, tādējādi veicinot dezinformācijas izplatību tiešsaistē.

Turklāt ar AI darbināmi tērzēšanas roboti var arī sniegt lietotājiem nepatiesu informāciju. Tērzēšanas roboti, piemēram, ChatGPT, Boost. AI un Drift var sniegt lietotājiem daudz informācijas, taču šī informācija ne vienmēr ir precīza. Kā apsprieda The GuardianAI tērzēšanas roboti nekādā veidā nav apņēmušies sniegt jums patiesu informāciju, kas nozīmē, ka viltus ziņas var ļoti viegli izslīdēt cauri plaisām un nonākt pie jums.

4. Ļaunprātīgas programmatūras izveide

2023. gada sākumā par to sāka izplatīties ziņa ļaunprātīgi dalībnieki, kas rada ļaunprātīgu programmatūru, izmantojot ChatGPT. Šajā gadījumā kiberanalītiķu uzņēmums Check Point Research atklāja, ka cilvēki uzlaušanas forumā apsprieda priekšrocības, ko sniedz ChatGPT izmantošana ļaunprātīgas programmatūras izveidei. Foruma ziņojuma autors dalījās ar informācijas zagšanu, ko viņi bija uzrakstījuši Python, izmantojot ChatGPT, mudinot citus ļaunprātīgos dalībniekus izveidot ļaunprātīgu programmatūru, izmantojot tērzēšanas robotu.

Ļaunprātīgas programmas ir jākodē, kas var būt laikietilpīga, it īpaši, ja satura veidotājs neizmanto veidni no jau esošas programmas.

Izmantojot ChatGPT, ļaunprātīgi dalībnieki var ne tikai racionalizēt ļaunprātīgas programmatūras izveides procesu, bet arī tehnoloģiski mazāk gudras personas var izveidot ļaunprātīgu programmatūru. Tā kā mākslīgā intelekta sarežģītība turpina attīstīties, var būt iespējams izveidot neticami izsmalcinātu ļaunprātīgu programmatūru, kas var apiet pretvīrusu noteikšanu, autentifikāciju, ugunsmūrus un citus aizsardzības pasākumus.

5. Regulas trūkums

Izplatīta problēma tehnoloģiju nozarē ir regulējuma trūkums jaunākiem pakalpojumiem, piemēram, uz blokķēdes balstītām platformām un AI produktiem. Daži var uzskatīt, ka regulējuma trūkums ir laba lieta, bet tas var arī radīt ceļu pretlikumīgai praksei.

Ne tikai regulējuma trūkums var izraisīt ar AI darbinātu krāpniecību un kibernoziegumu pieaugumu, bet arī veids, kā pētnieki izstrādā AI tehnoloģijas, var sākt šķērsot dažas nopietnas robežas. Strādājot ar AI, ir jāņem vērā ētiski apsvērumi. Vai sistēma var kļūt pārāk apzināta? Kāda veida AI ietekmēs cilvēka dzīvi? Vai mums šādā veidā būtu jāizmanto AI? Jautājumu saraksts turpinās un turpinās.

Bez regulējuma daži uzņēmumi var sākt pārkāpt morāles robežas, kas savukārt varētu būt ļoti slikta ziņa plašākai sabiedrībai.

AI virzās ātri un noteikti rada riskus

Nevar noliegt, ka mākslīgā intelekta potenciāls ir milzīgs, taču tas ir atbilstoši jāizmanto, lai samazinātu iespēju, ka lietas kļūst nekontrolējamas. Mēs jau esam redzējuši, ka mākslīgais intelekts tiek izmantots ļaunprātīgi, tāpēc nav zināms, kā šī problēma varētu attīstīties, lietas virzoties tālāk. Laiks rādīs, vai AI kļūs par svētību vai lāstu mūsu pasaulē, un veidam, kādā tas tiks apstrādāts tagad, noteikti būs nozīme šajā iznākumā.