Tā kā mūsdienu AI valodu modeļi, piemēram, ChatGPT un Microsoft Bing Chat, rada viļņus visā pasaulē, daudzi cilvēki ir noraizējušies par AI pārņemšanu pasaulē.

Lai gan mēs tuvākajā nākotnē neizmantosim SkyNet, mākslīgais intelekts vairākās lietās kļūst labāks par cilvēkiem. Šeit parādās AI kontroles problēma.

Izskaidrota AI kontroles problēma

AI kontroles problēma ir ideja, ka AI galu galā kļūs labāks lēmumu pieņemšanā nekā cilvēki. Saskaņā ar šo teoriju, ja cilvēki iepriekš neiestatīs lietas pareizi, mēs nevarēsim tos salabot vēlāk, kas nozīmē, ka AI būs efektīva kontrole.

Pašreizējie pētījumi par mākslīgā intelekta un mašīnmācīšanās (ML) modeļiem ir vismaz gadu laikā, kad tie pārspēj cilvēka spējas. Tomēr ir saprātīgi domāt, ka, ņemot vērā pašreizējo progresu, AI pārsniegs cilvēkus gan intelekta, gan efektivitātes ziņā.

Tas nenozīmē, ka AI un ML modeļiem nav ierobežojumu. Galu galā viņiem ir jāievēro fizikas likumi un skaitļošanas sarežģītība, kā arī to ierīču apstrādes jauda, ​​kas atbalsta šīs sistēmas. Tomēr ir droši pieņemt, ka šīs robežas ir tālu ārpus cilvēka iespējām.

Tas nozīmē, ka superinteliģents AI sistēmas var radīt lielus draudus ja tas nav pareizi izstrādāts ar drošības pasākumiem, lai pārbaudītu jebkādu potenciāli negodīgu rīcību. Šādas sistēmas ir jāveido no paša sākuma, lai ievērotu cilvēciskās vērtības un kontrolētu to spēku. Tas ir tas, ko nozīmē kontroles problēma, ja tā saka, ka lietas ir jāiestata pareizi.

Ja mākslīgā intelekta sistēma bez pienācīgiem aizsardzības pasākumiem pārspētu cilvēka intelektu, rezultāts varētu būt katastrofāls. Šādas sistēmas varētu uzņemties fizisko resursu kontroli, jo daudzi uzdevumi tiek izpildīti labāk vai efektīvāk. Tā kā AI sistēmas ir izstrādātas tā, lai sasniegtu maksimālu efektivitāti, kontroles zaudēšana var radīt nopietnas sekas.

Kad tiek piemērota AI kontroles problēma?

Galvenā problēma ir tā, ka jo labāka kļūst AI sistēma, jo grūtāk uzraugam ir pārraudzīt tehnoloģiju, lai nodrošinātu, ka manuālo vadību var viegli pārņemt, ja sistēma neizdodas. Turklāt cilvēka tieksme paļauties uz automatizētu sistēmu ir lielāka, ja sistēma lielāko daļu laika darbojas uzticami.

Lielisks piemērs tam ir Tesla pilnas pašbraukšanas (FSD) komplekts. Lai gan automašīna var braukt pati, cilvēkam ir jātur rokas uz stūres, kas ir gatavs pārņemt vadību pār automašīnu, ja sistēma darbotos nepareizi. Tomēr, tā kā šīs AI sistēmas kļūst uzticamākas, pat modrākā cilvēka uzmanība sāks mainīties un palielināsies atkarība no autonomās sistēmas.

Tātad, kas notiek, kad automašīnas sāk braukt ar ātrumu, kam cilvēki nespēj sekot līdzi? Mēs galu galā nodosim vadību automašīnas autonomajām sistēmām, kas nozīmē, ka AI sistēma kontrolēs jūsu dzīvi, vismaz līdz brīdim, kad sasniegsiet galamērķi.

Vai AI kontroles problēmu var atrisināt?

Ir divas atbildes uz jautājumu, vai AI kontroles problēmu var atrisināt. Pirmkārt, ja mēs interpretējam jautājumu burtiski, kontroles problēmu nevar atrisināt. Mēs nevaram darīt neko tādu, kas būtu tieši vērsts uz cilvēka tieksmi paļauties uz automatizētu sistēmu, kad tā lielākoties darbojas uzticami un efektīvāk.

Tomēr, ja šī tendence tiek uzskatīta par šādu sistēmu īpašību, mēs varam izstrādāt veidus, kā apiet kontroles problēmu. Piemēram, Algoritmiskā lēmumu pieņemšana un kontroles problēma Pētījums piedāvā trīs dažādas metodes, kā tikt galā ar grūto situāciju:

  • Mazāk uzticamu sistēmu izmantošana prasa, lai cilvēks aktīvi iesaistītos sistēmā, jo mazāk uzticamas sistēmas nerada kontroles problēmu.
  • Pirms izvietošanas reālajā pasaulē gaidīt, līdz sistēma pārsniegs cilvēka efektivitāti un uzticamību.
  • Īstenot tikai daļēju automatizāciju, izmantojot uzdevumu sadalīšanu. Tas nozīmē, ka tiek automatizētas tikai tās sistēmas daļas, kurām nav nepieciešams operators cilvēks, lai veiktu svarīgu uzdevumu. To sauc par funkciju dinamiskās/komplementārās piešķiršanas (DCAF) pieeju.

DCAF pieeja vienmēr nostāda cilvēku operatoru pie automatizētas sistēmas stūres, nodrošinot, ka viņa ievade kontrolē vissvarīgākās sistēmas lēmumu pieņemšanas procesa daļas. Ja sistēma ir pietiekami saistoša, lai cilvēks-operators pastāvīgi pievērstu uzmanību, vadības problēmu var atrisināt.

Vai mēs kādreiz varam patiesi kontrolēt AI?

Tā kā mākslīgā intelekta sistēmas kļūst modernākas, spējīgākas un uzticamākas, mēs turpināsim tām piešķirt vairāk uzdevumu. Tomēr AI kontroles problēmu var atrisināt ar pareiziem piesardzības pasākumiem un drošības pasākumiem.

AI jau tagad maina pasauli mūsu labā, galvenokārt uz labo pusi. Kamēr tehnoloģija ir cilvēku uzraudzībā, mums nevajadzētu par ko uztraukties.