Jaunākās inovācijas saistībā ar tehnoloģijām, kas balstītas uz mākslīgo intelektu, pārkāpj robežas tam, ko mēs kādreiz uzskatījām par iespējamu ar AI. Tomēr, tā kā tērzēšanas roboti, piemēram, ChatGPT un Bing Chat, vairākās lietās ir gandrīz tikpat labi kā cilvēki, vai ir pienācis laiks kādu laiku nospiest bremzes?
Īlons Masks un vairāki mākslīgā intelekta pētnieki ir starp 1188 cilvēkiem (raksta tapšanas laikā), kas tā domā. Bezpeļņas institūta Future of Life publicētajā vēstulē aicināts uz sešiem mēnešiem pārtraukt AI tehnoloģiju apmācību, kas ir labākas par GPT 4, taču vai pauze patiešām ir nepieciešama?
Kas ir atklātā vēstules nākotne?
The vēstule, ko publicējis institūts Future of Life norāda, ka mākslīgā intelekta laboratorijas ir "ieslēgtas ārpus kontroles sacensībām", lai izstrādātu un izvietotu vairāk un jaudīgāki AI modeļi, kurus neviens, tostarp to veidotāji, nevar "saprast, paredzēt vai ticami". kontrole".
Tajā arī norādīts, ka mūsdienu mākslīgā intelekta sistēmas tagad kļūst konkurētspējīgas, veicot vispārīgus uzdevumus, un jautā vai mums vajadzētu attīstīt "necilvēciskus prātus, kas galu galā varētu pārspēt, pārspēt, novecot un aizstāt mēs".
Vēstulē visas AI laboratorijas tiek aicinātas nekavējoties vismaz uz sešiem mēnešiem apturēt tādu AI sistēmu apmācību, kuras ir jaudīgākas par GPT-4. Pauzei jābūt publiskai un pārbaudāmai arī visiem galvenajiem dalībniekiem. Tajā arī norādīts, ka, ja šādu pauzi nevar ātri ieviest, valdībām ir jāiesaistās, lai uz laiku aizliegtu AI modeļu apmācību.
Kad pauze ir aktivizēta, AI laboratorijas un neatkarīgie eksperti tiek lūgti to izmantot, lai kopīgi izstrādātu un ieviestu a "kopīgu drošības protokolu kopu", lai nodrošinātu, ka sistēmas, kas ievēro šos noteikumus, ir "drošības, kas pārsniedz saprātīgu līmeni šaubas".
Šo vēstuli ir parakstījušas vairākas nosauktas personas, tostarp Elons Masks, Stīvs Vozņaks un AI pētnieki un autori. Patiesībā parakstītāju saraksts šobrīd ir apturēts lielā pieprasījuma dēļ.
Kādas ir Musku bažas saistībā ar Advanced AI Tech un OpenAI?
Lai gan Future of Life vēstules parakstīšana varētu norādīt, ka Musks ir noraizējies par drošības riskiem, ko rada šādas uzlabotas AI sistēmas, patiesais iemesls varētu būt kaut kas cits.
Musks kopā ar pašreizējo izpilddirektoru Semu Altmanu līdzdibināja OpenAI 2015. gadā kā bezpeļņas organizācija. Tomēr vēlāk 2018. gadā viņš saskārās ar Altmanu, kad saprata, ka nav apmierināts ar uzņēmuma progresu. Tiek ziņots, ka Musks vēlējās pārņemt darbu, lai paātrinātu attīstību, taču Altmans un OpenAI padome šo ideju atmeta.
Neilgi pēc tam Musks aizgāja no OpenAI un paņēma līdzi savu naudu, laužot solījumu iemaksāt 1 miljardu un tikai pirms aiziešanas atdot 100 miljonus. Tas piespieda OpenAI drīz pēc tam 2019. gada martā kļūt par privātu uzņēmumu, lai piesaistītu finansējumu pētniecības turpināšanai.
Vēl viens iemesls, kāpēc Musks aizgāja, bija tas, ka AI attīstība Teslā nākotnē izraisīs interešu konfliktu. Ir skaidrs, ka Tesla ir nepieciešamas uzlabotas AI sistēmas, lai to darbinātu Pilnas pašbraukšanas funkcijas. Kopš Musks pameta OpenAI, uzņēmums ir aizbēgis ar saviem AI modeļiem, uzsākot darbu Ar GPT3.5 darbināms ChatGPT 2022. gadā un vēlāk, izmantojot GPT-4, 2023. gada martā.
Fakts, ka Muska AI komanda ne tuvu nav OpenAI, ir jāņem vērā katru reizi, kad viņš saka, ka mūsdienu AI modeļi var radīt riskus. Viņam arī nebija nekādu problēmu izlaižot Tesla Full Self-Driving beta versiju uz koplietošanas ceļiem, būtībā pārvēršot parastos Tesla draiverus par beta testētājiem.
Arī šeit tas nebeidzas. Musks arī ir diezgan kritisks pret OpenAI vietnē Twitter, Altmans pat apgalvoja, ka uzbrūk viņiem, nesen parādoties aplādei "On with Kara Swisher".
Pašlaik šķiet, ka Musks tikai izmanto Future of Life vēstuli, lai apturētu OpenAI attīstību un jebkuru citu uzņēmumu, kas tuvojas. uz GPT-4, lai dotu saviem uzņēmumiem iespēju panākt, nevis uztraukties par šo AI modeļu iespējamajām briesmām poza. Ņemiet vērā, ka vēstulē arī lūgts uz sešiem mēnešiem apturēt mākslīgā intelekta sistēmu "apmācību", ko var salīdzinoši viegli apiet, lai tikmēr turpinātu tās izstrādāt.
Vai tiešām ir nepieciešama pauze?
Pauzes nepieciešamība ir atkarīga no turpmākā AI modeļu stāvokļa. Vēstule noteikti ir nedaudz dramatiska, un mēs neriskējam zaudēt kontroli pār savu civilizāciju mākslīgā intelekta dēļ, kā tas tik atklāti teikts. Tas teica, AI tehnoloģijas rada dažus draudus.
Ņemot vērā, ka OpenAI un citas AI laboratorijas var ieviest labākas drošības pārbaudes, pauze nodarītu vairāk ļauna nekā laba. Tomēr vēstulē sniegtais ieteikums par kopīgu drošības protokolu kopumu, ko "stingri revidē un uzrauga neatkarīgi ārējie eksperti", izklausās kā laba ideja.
Tā kā tehnoloģiju giganti, piemēram, Google un Microsoft, iegulda miljardus AI izstrādei un integrācijai savos produktos, maz ticams, ka vēstule ietekmēs pašreizējo AI attīstības tempu.
AI ir šeit, lai paliktu
Tā kā tehnoloģiju giganti pastiprina AI integrāciju savos produktos un iegulda miljardiem dolāru pētniecībā un attīstībā, AI ir šeit, lai paliktu neatkarīgi no opozīcijas teiktā.
Taču nav slikta ideja ieviest drošības pasākumus, lai šīs tehnoloģijas nenovirzītos no sliedēm un, iespējams, nepārvērstos par kaitējuma instrumentiem.