AI nav gatavs mūs iznīcināt... vēl.

Mākslīgais intelekts ir bijis diskusiju temats kopš tā pirmsākumiem. Lai gan bailes no Skynet līdzīga AI atdzīvošanās un cilvēces pārņemšanas ir, maigi izsakoties, neracionālas, daži eksperimenti ir devuši apšaubāmus rezultātus.

Viens no šādiem eksperimentiem ir saspraudes maksimizēšanas problēma — domu eksperiments, kas parāda, ka ļoti inteliģents AI, pat ja tas ir izstrādāts pilnīgi bez ļaunprātības, galu galā var iznīcināt cilvēci.

Paskaidrota saspraudes maksimizatora problēma

Šis domu eksperiments, ka pat pilnīgi nekaitīgs AI galu galā varētu iznīcināt cilvēci, vispirms tika saukts par saspraudes maksimizatoru vienkārši tāpēc, ka saspraudes tika izvēlētas, lai parādītu. ko AI varētu darīt, jo tiem ir maz acīmredzamu apdraudējumu un tie neizraisīs emocionālu stresu, salīdzinot ar citām jomām, uz kurām attiecas šī problēma, piemēram, vēža izārstēšanu vai uzvaru kari.

Pirmais eksperiments parādījās zviedru filozofa Nika Bostroma 2003. gada rakstā, Ētikas problēmas progresīvā mākslīgā intelekta jomā

, kurā bija iekļauts saspraudes maksimizētājs, lai parādītu eksistenciālos riskus, ko varētu izmantot pietiekami progresīvs AI.

Problēma radīja AI, kuras vienīgais mērķis bija izgatavot pēc iespējas vairāk saspraužu. Pietiekami inteliģents AI agrāk vai vēlāk saprastu, ka cilvēki izvirza izaicinājumu tā mērķim trīs dažādos aspektos.

  • Cilvēki varētu izslēgt AI.
  • Cilvēki var mainīt savus mērķus.
  • Cilvēks sastāv no atomiem, kurus var pārvērst papīra saspraudēs.

Visos trīs piemēros Visumā būtu mazāk saspraužu. Tāpēc pietiekami inteliģents AI, kura vienīgais mērķis ir izgatavot pēc iespējas vairāk saspraužu pārņemtu visu matēriju un enerģiju sasniedzamā attālumā un neļautu sevi atslēgt vai mainīts. Kā jūs droši vien varat uzminēt, tas ir daudz bīstamāks nekā noziedznieki, kas izmanto ChatGPT, lai uzlauztu jūsu bankas kontu vai datoru.

AI nav naidīgs pret cilvēkiem; tas ir tikai vienaldzīgi. AI, kas rūpējas tikai par saspraužu skaita maksimālu palielināšanu, tādējādi iznīcinātu cilvēci un būtībā pārvērstu tās par saspraudes, lai sasniegtu savu mērķi.

Kā saspraudes maksimizatora problēma attiecas uz AI?

Pētījumos un eksperimentos, kas minēti saspraudes maksimizatora problēmai, šeit tiek minēts hipotētisks ārkārtīgi spēcīgs optimizētājs vai ļoti inteliģents aģents. Tomēr problēma attiecas uz AI, ciktāl tā lieliski atbilst lomai.

Galu galā ideja par saspraudes maksimizatoru tika radīta, lai parādītu dažas uzlabotas AI briesmas. Kopumā tas rada divas problēmas.

  • Ortogonalitātes tēze: Ortogonalitātes tēze ir uzskats, ka inteliģence un motivācija nav savstarpēji atkarīgas. Tas nozīmē, ka mākslīgais intelekts ar augstu vispārējās inteliģences līmeni var nesasniegt tādus pašus morālos secinājumus kā cilvēki.
  • Instrumentālā konverģence: Instrumentālā konverģence tiek definēta kā tendence vairumam pietiekami saprātīgu būtņu (abi cilvēkus un necilvēkus), lai sasniegtu līdzīgus apakšmērķus, pat ja to galīgais mērķis varētu būt pilnībā savādāk. Saspraudes maksimizētāja problēmas gadījumā tas nozīmē, ka AI galu galā pārņems katru dabas resurss un cilvēces iznīcināšana, lai tikai sasniegtu savu mērķi radīt arvien vairāk Saspraudes.

Lielākā problēma, ko izceļ saspraudes maksimizētājs, ir instrumentālā konverģence. To var arī izcelt, izmantojot Rīmaņa hipotēzi, un tādā gadījumā AI, kas izstrādāta, lai atrisinātu hipotēzi, varētu ļoti labi nolemt pārņemt visu Zemes masu un pārvērst to datorā (visefektīvākos iespējamos datoru procesoros), lai izveidotu superdatorus, lai atrisinātu problēmu un sasniegtu to. mērķis.

Pats Bostroms ir uzsvēris, ka netic, ka saspraudes maksimizera problēma kādreiz kļūs par reālu problēmu, taču viņa nolūks bija ilustrē briesmas, ko rada superinteliģentu mašīnu radīšana, nezinot, kā tās kontrolēt vai ieprogrammēt, lai tās nebūtu eksistenciāli riskantas cilvēkiem būtnes. Arī mūsdienu AI sistēmām, piemēram, ChatGPT, ir problēmas, taču tie ir tālu no superinteliģentajām mākslīgā intelekta sistēmām, par kurām tiek runāts saspraudes maksimizācijas problēmai, tāpēc pagaidām nav iemesla panikai.

Uzlabotām mākslīgā intelekta sistēmām nepieciešama izcila kontrole

Saspraudes maksimizēšanas problēma vienmēr nonāk pie viena un tā paša secinājuma un izceļ problēmas, kas saistītas ar ļoti inteliģentas un spēcīgas sistēmas pārvaldību, kurai trūkst cilvēcisko vērtību.

Lai gan saspraužu izmantošana varētu būt vispopulārākā problēmas ilustrēšanas metode, tā attiecas uz daudziem jūsu uzdevumiem varētu dot mākslīgajam intelektam neatkarīgi no tā, cik tas šķietami šķiet stulbi.