AI attīstība strauji virzās uz priekšu, bet kam vajadzētu vadīt AI un tā ietekmi uz pasauli?

Key Takeaways

  • AI ir nepieciešama stingrāka uzraudzība, jo joprojām parādās kiberdrošības ievainojamības un privātuma problēmas.
  • Valdībai, tehnoloģiju uzņēmumiem un galalietotājiem ir sava loma AI regulēšanā, taču katrai pieejai ir savi ierobežojumi.
  • Plašsaziņas līdzekļi, bezpeļņas organizācijas, tehnoloģiju nozares asociācijas, akadēmiskās iestādes un tiesībaizsardzības aģentūras arī sniedz ieguldījumu AI regulēšanā.

Plašākai sabiedrībai ir atšķirīgi viedokļi par AI — daži uzskata, ka mašīnas pilnībā aizstās cilvēkus, savukārt citi apgalvo, ka AI ir iedoma. Tomēr visi piekrīt vienai lietai, ka AI ir nepieciešama stingrāka uzraudzība.

Neraugoties uz mākslīgā intelekta regulējuma nozīmību, apmācībā tas ir palicis otrajā plānā. Izstrādātāji ir tik ļoti aizrāvušies ar nākamā lielākā AI modeļa izveidi, ka viņi tirgo kiberdrošību, lai ātri attīstītos. Jautājums nav par to, vai AI ir nepieciešams regulējums; tā ir tā, kura pārvaldes iestāde ar atbilstošu finansējumu, cilvēkresursiem un tehnoloģiskajām iespējām uzņemsies iniciatīvu.

Tātad, kam būtu jāregulē AI?

Valdības iestādes

Dažādi cilvēki, sākot no patērētājiem līdz tehnoloģiju vadītāji, ceru, ka valdība regulēs AI. Valsts finansētām iestādēm ir resursi, lai to izdarītu. Pat Elons Masks un Sems Altmans, divi galvenie AI sacensību virzītāji, uzskata, ka daži privātuma problēmas saistībā ar AI ir pārāk bīstami, lai vadošās institūcijas to nepamanītu.

Valdībai būtu jākoncentrējas uz savu vēlētāju privātuma un pilsoņu brīvību aizsardzību, ja tā pārņems AI regulējumu. Kibernoziedznieki turpina atrast veidus, kā savās shēmās izmantot AI sistēmas. Personas, kuras nepārzina AI, var viegli tikt apmānītas ar sintezētām balsīm, dziļi viltotiem videoklipiem un ar robotprogrammatūru darbināmiem tiešsaistes profiliem.

Tomēr viena no galvenajām problēmām, ko valdība regulē AI, ir tā, ka tā var netīši apslāpēt inovācijas. AI ir sarežģīta tehnoloģija, kas attīstās. Ja ierēdņi, kas pārrauga izvietošanas, izstrādes un apmācības vadlīnijas, nesaprot, kā darbojas AI, viņi var pieņemt priekšlaicīgus, neefektīvus spriedumus.

AI izstrādātāji, tehnoloģiju uzņēmumi un laboratorijas

Ņemot vērā iespējamos šķēršļus, ko varētu radīt valdība, uzraugot mākslīgo intelektu, daudzi labāk vēlētos, lai tehnoloģiju uzņēmumi regulētu regulējumu. Viņi uzskata, ka izstrādātājiem ir jābūt atbildīgiem par tehnoloģiju, ko viņi izlaiž. Pašregulācija ļauj viņiem virzīt inovācijas un koncentrēties uz šo sistēmu efektīvu pilnveidošanu.

Turklāt viņu padziļinātā izpratne par mākslīgo intelektu palīdzēs viņiem izstrādāt godīgas, informētas vadlīnijas, kas nosaka lietotāju drošību, neapdraudot funkcionalitāti. Tāpat kā ar jebkuru tehnoloģiju, nozares zināšanas racionalizē uzraudzību. Neapmācītu ierēdņu norīkošana regulēt tehnoloģijas, kuras viņi tik tikko saprot, var radīt vairāk problēmu nekā ieguvumu.

Kā piemēru ņemiet 2018. gada ASV Senāta uzklausīšanu par Facebook datu privātuma likumiem. Šajā ziņojumā autors The Washington Post, jūs redzēsit, ka daudzi likumdevēji ir sajaukti ar Facebook pamatfunkcijām. Tātad, ja vien ASV Senāts neizveidos vienīgo tehnoloģiju speciālistu nodaļu, viņi, visticamāk, nebūs kvalificēti, lai regulētu tik progresīvu, pastāvīgi mainīgu sistēmu, piemēram, AI.

Tomēr galvenā problēma ar tehnoloģiju uzņēmumiem, kas regulē sevi, ir tāda, ka ēnas korporācijas var ļaunprātīgi izmantot savu varu. Ja neiejaucas trešā puse, viņi būtībā var brīvi darīt visu, ko vēlas.

Gala lietotāji

Daži baidās, ka valsts un privātās struktūras ļaunprātīgi izmantos AI sistēmas. Viņi nav pārliecināti par to, vai dažām vadības struktūrām tiek piešķirta pilnīga kontrole pār tik jaudīgām tehnoloģijām, jo ​​īpaši tāpēc, ka AI joprojām attīstās. Viņi galu galā varētu cīnīties par autoritāti, nevis strādāt pie efektīva regulējuma.

Lai mazinātu šos riskus, skeptiķi uzskata, ka galalietotāji ir pelnījuši brīvību izmantot AI modeļus, kā viņi vēlas. Viņi saka, ka valdības iestādēm vajadzētu iejaukties tikai tad, ja AI lietotāji pārkāpj likumu. Tas ir ambiciozs mērķis, taču tehniski to varētu sasniegt, ja tirgus daļās dominētu atvērtā pirmkoda AI izstrādātāji.

Tomēr šī iestatīšana nostāda neizdevīgākā situācijā personas, kas nav lietpratīgas. Lietotāji ir atbildīgi par ierobežojumu noteikšanu savās sistēmās — diemžēl ne visiem ir resursi, lai to izdarītu.

Patentēto modeļu izņemšana no tirgus ir arī tuvredzīga. Izplatība atvērtā pirmkoda AI modeļiem ir vairākas pozitīvas un negatīvas ietekmes; dažiem mīnusi atsver plusus.

Citas vienības, kurām ir nozīme AI regulēšanā

Lai gan lielās vienības vadīs AI regulējumu, ir struktūras, kurām ir nozīmīga loma:

Plašsaziņas līdzekļiem ir izšķiroša nozīme, veidojot sabiedrības priekšstatu par AI. Viņi ziņo par nozares attīstību, dalās ar jauniem rīkiem, informē par AI kaitīgo izmantošanu un intervē ekspertus par attiecīgajām bažām.

Lielākā daļa faktu, ko galalietotāji zina par AI, pamatā nāk no plašsaziņas līdzekļiem. Nepatiesu datu publicēšana, tīši vai nē, radīs neatgriezenisku kaitējumu — jūs nevarat novērtēt par zemu, cik ātri izplatās dezinformācija.

2. Nevalstiskās organizācijas

Vairākas bezpeļņas organizācijas ir vērstas uz AI lietotāju privātuma un pilsoņu brīvību aizsardzību. Viņi izglīto sabiedrību, izmantojot bezmaksas resursus, iestājas par jaunu politiku, sadarbojas ar valdības amatpersonām un pauž aizmirstās bažas.

Vienīgā problēma ar BO ir tā, ka tām parasti trūkst resursu. Tā kā viņi nav saistīti ar valdību, ikdienas darbībai viņi paļaujas uz privātiem lūgumiem un ziedojumiem. Diemžēl tikai dažas organizācijas saņem atbilstošu finansējumu.

3. Tehnoloģiju nozares asociācijas

Uz AI orientētas tehnoloģiju nozares asociācijas var pārstāvēt sabiedrības tiesības un intereses. Tāpat kā NPO, tās sadarbojas ar likumdevējiem, pārstāv ieinteresētās personas, iestājas par godīgu politiku un veicina izpratni par konkrētiem jautājumiem.

Tomēr atšķirība ir tāda, ka viņiem bieži ir saites ar privātiem uzņēmumiem. Viņu biedri joprojām veic uzaicinājumus, taču parasti viņi saņems pietiekami daudz finansējuma no savām vecāku organizācijām, ja vien viņi sniegs rezultātus.

4. Akadēmiskās institūcijas

Lai gan mākslīgais intelekts ir saistīts ar vairākiem riskiem, tas pēc būtības ir neitrāls. Visi aizspriedumi, privātuma problēmas, drošības kļūdas un iespējamās kibernoziedzības darbības izriet no cilvēkiem, tāpēc AI pati par sevi nav jābaidās.

Taču ļoti maz jau saprot, kā darbojas mūsdienu AI modeļi. Nepareizi priekšstati sagroza cilvēku uztveri par AI, iemūžinot nepamatotas bailes, piemēram, AI pārņemt cilvēci vai zagt darba vietas.

Akadēmiskās iestādes varētu aizpildīt šīs izglītības nepilnības, izmantojot pieejamus resursus. Par mūsdienu LLM un NLP sistēmām vēl nav pārāk daudz zinātnisku darbu. Sabiedrība var izmantot mākslīgo intelektu atbildīgāk un cīnīties pret kibernoziegumiem, ja tā pilnībā saprot, kā tas darbojas.

5. Tiesībaizsardzības aģentūras

Tiesībaizsardzības iestādēm būtu jārēķinās ar vairāk AI iespējoti kiberuzbrukumi. Izplatot ģeneratīvos modeļus, blēži var ātri sintezēt balsis, ģenerēt dziļus viltus attēlus, nokasīt personu identificējoša informācija (PII) un pat izveidot pilnīgi jaunas personas.

Lielākā daļa aģentūru nav sagatavotas, lai risinātu šos noziegumus. Viņiem būtu jāiegulda jaunās sistēmās un jāapmāca savi darbinieki par mūsdienu kibernoziegumiem; pretējā gadījumā viņiem būs grūtības notvert šos blēžus.

AI regulas nākotne

Ņemot vērā mākslīgā intelekta straujo raksturu, maz ticams, ka viena pārvaldes iestāde to kontrolēs. Jā, tehnoloģiju vadītājiem būs lielāka vara nekā patērētājiem, taču dažādām struktūrām ir jāsadarbojas, lai pārvaldītu AI riskus, netraucējot progresam. Vislabāk ir noteikt kontroles pasākumus tagad, kamēr mākslīgais vispārējais intelekts (AGI) joprojām ir tāls mērķis.

Tas nozīmē, ka AI regulējums ir tikpat tālu kā AGI. Tikmēr lietotājiem ir jāievēro drošības prakse, lai cīnītos pret AI izraisītiem draudiem. Labi ieradumi, piemēram, to cilvēku skaita ierobežošana, ar kuriem sazināties tiešsaistē, un digitālās PII nodrošināšana jau ir nozīmīgi.