Eksperti domā, ka AI izbeigs mūsu pazīstamo cilvēci, tāpēc kas tiek darīts, lai tas nenotiktu?

Atkal grupa vadošo AI pētnieku un tehnoloģiju firmu ir brīdinājusi, ka pašreizējā straujā mākslīgā intelekta attīstība var izraisīt katastrofu cilvēcei.

Riski aptver kodolkonfliktus, slimības, dezinformāciju un bēguļojošu mākslīgo intelektu, kam trūkst uzraudzības, un tas viss rada tiešus draudus cilvēku izdzīvošanai.

Taču netiks zaudēts, ka daudzi no šiem brīdinājumiem nāk no tiem pašiem cilvēkiem, kuri vada AI izstrādi un nodrošina mākslīgā intelekta rīkus un programmas savos uzņēmumos.

Kāpēc tehnoloģiju uzņēmumi un AI zinātnieki brīdina par AI risku?

2023. gada 30. maijā vairāk nekā 350 AI pētnieki, izstrādātāji un inženieri izdeva parakstītu paziņojumu, brīdinot par AI draudiem cilvēcei.

AI izraisītā izzušanas riska mazināšanai ir jābūt globālai prioritātei līdzās citiem sabiedrības mēroga riskiem, piemēram, pandēmijām un kodolkaram.

Parakstītāji uz Safe.ai paziņojums iekļauts Sems Altmans no OpenAI, Demiss Hassabis no Google DeepMind un Dario Amodei no Anthropic, kā arī Tjūrings Balvu ieguvēji Džefrijs Hintons un Jošua Bengio (lai gan Jans Lekuns, kurš arī ieguva to pašu balvu, novārtā parakstīja līgumu). Saraksts ir gandrīz vai kurš no AI attīstības pasaules — cilvēki, kas ir vadošie AI jomā, taču viņi visi ir šeit, brīdinot, ka AI var izraisīt katastrofu cilvēcei.

Tas ir īss paziņojums, kas skaidri parāda draudus, īpaši minot divas galvenās jomas, kas varētu apdraudēt mums zināmo pasauli: kodolkarš un globālās veselības problēmas. Lai gan kodolkonfliktu draudi rada bažas, pandēmijas risks lielākajai daļai cilvēku ir taustāmāks drauds.

Tomēr tā nav tikai globāla pandēmija, kas var izraisīt ar AI saistītas veselības problēmas. The Guardian ziņo par vairākām citām AI veselības problēmām, kas var ietekmēt cilvēkus, ja tās netiek pārbaudītas pirms plašas izmantošanas. Viens piemērs bija saistīts ar mākslīgā intelekta darbināmu oksimetru izmantošanu, kas "pārvērtēja skābekļa līmeni asinīs pacientiem ar tumšāku ādu, kā rezultātā viņu hipoksija tika ārstēta nepietiekami".

Turklāt tā nav pirmā reize, kad tehnoloģiju līderu grupa ir aicinājusi apturēt vai nopietni pārvērtēt AI attīstību. 2023. gada martā, Elons Masks un citi AI pētnieki parakstīja līdzīgu aicinājumu uz darbību pieprasot moratoriju AI izstrādei, līdz tiks ieviests plašāks regulējums, lai palīdzētu virzīt procesu.

Kāds ir AI risks?

Lielākā daļa risku, kas saistīti ar AI, vismaz šajā kontekstā, ir saistīti ar bēguļojošas AI tehnoloģijas attīstību kas pārsniedz cilvēku iespējas, un galu galā tas ieslēdz savu radītāju un iznīcina dzīvību, kā mēs zinām to. Tas ir neskaitāmas reizes aprakstīts zinātniskās fantastikas rakstos, taču realitāte tagad ir tuvāka, nekā mēs varētu domāt.

Lielo valodu modeļu (kas ir tādu rīku kā ChatGPT pamatā) iespējas krasi palielinās. tomēr rīkiem, piemēram, ChatGPT, ir daudz problēmu, piemēram, neobjektivitāte, bažas par privātumu un AI halucinācijas, nemaz nerunājot par tā spēju tikt uzlauztam cietumā, lai darbotos ārpus ieprogrammēto noteikumu un nosacījumu robežām.

Pieaugot lieliem valodu modeļiem, un tiem ir vairāk datu punktu, uz kuriem var atsaukties, kā arī piekļuve internetam un lielāka Izprotot pašreizējos notikumus, mākslīgā intelekta pētnieki baidās, ka kādu dienu tas varētu, OpenAI izpilddirektora Sema Altmena vārdiem sakot, "notikt diezgan nepareizi."

Kā valdības regulē AI attīstību, lai apturētu riskus?

AI regulējums ir galvenais, lai novērstu riskus. 2023. gada maija sākumā Sems Altmans aicināja vairāk regulēt AI, norādot, ka "valdību regulējoša iejaukšanās būs ļoti svarīga, lai mazinātu arvien spēcīgāku modeļu riskus."

Pēc tam, Eiropas Savienība paziņoja par AI likumu, regula, kas izstrādāta, lai nodrošinātu daudz stingrāku ietvaru mākslīgā intelekta attīstībai visā ES (ar daudziem noteikumiem, kas tiek izplatīti citās jurisdikcijās). Altmans sākotnēji draudēja izstāties no OpenAI no ES, bet pēc tam atteicās no saviem draudiem un piekrita, ka uzņēmums ievēros AI regulu, ko viņš iepriekš bija pieprasījis.

Neatkarīgi no tā, ir skaidrs, ka AI izstrādes un izmantošanas regulēšana ir svarīga.

Vai AI beigs cilvēci?

Tā kā liela daļa debašu par šo tēmu ir balstīta uz hipotēzēm par AI turpmāko versiju jaudu, pastāv problēmas saistībā ar ilgmūžību un jaudu, kas var būt jebkuram AI regulējumam. Kā vislabāk regulēt nozari, kas jau pārvietojas ar ātrumu tūkstoš jūdžu minūtē, un sasniegumi attīstībā notiek katru dienu?

Turklāt joprojām pastāv šaubas par AI iespējām kopumā un to, kur tas nonāks. Kamēr tie, kas baidās no ļaunākā, norāda, ka mākslīgais vispārējais intelekts kļūst par cilvēku pavēlnieku, citi norāda uz to fakts, ka pašreizējās mākslīgā intelekta versijās pat nevar atrisināt pamata matemātikas jautājumus un ka pilnībā pašbraucošas automašīnas joprojām ir veids, kā izslēgts.

Grūti nepiekrist tiem, kas raugās nākotnē. Daudzi cilvēki, kas skaļāk kliedz par problēmām, ko var radīt mākslīgais intelekts, sēž vadītāja sēdeklī un skatās, kurp mēs varētu virzīties. Ja viņi pieprasa mākslīgā intelekta regulējumu, lai pasargātu mūs no potenciāli šausminošas nākotnes, varētu būt laiks ieklausīties.