Ideja, ka AI tehnoloģijas ir jāregulē, ir izplatīts viedoklis. Lielākā daļa valdību, AI produktu izstrādātāji un pat parastie AI produktu lietotāji tam piekrīt. Diemžēl labākais veids, kā regulēt šo strauji augošo jomu, ir neatrisināta mīkla.

Ja AI tehnoloģijas netiek pārbaudītas, tās var negatīvi izjaukt mūsu dzīvesveidu un apdraudēt mūsu eksistenci. Bet kā valdības var orientēties izaicinājumu labirintā, kas rodas šajā strauji mainīgajā jomā?

1. Datu privātuma un aizsardzības noteikumi

Viena no galvenajām problēmām saistībā ar AI tehnoloģijām ir datu privātums un drošība. Mākslīgā intelekta sistēmas ir datu izsalkušas mašīnas. Viņiem ir nepieciešami dati, lai tie darbotos, vairāk datu, lai tie darbotos efektīvi, un vēl vairāk datu, lai tos uzlabotu. Lai gan tā nav problēma, veids, kā šie dati tiek iegūti, to būtība un veids, kā tie tiek apstrādāti un uzglabāti, ir viens no lielākajiem sarunu punktiem saistībā ar AI noteikumiem.

Ņemot to vērā, loģisks ceļš ir ieviest stingrus datu privātuma noteikumus, kas regulē datus vākšana, uzglabāšana un apstrāde, kā arī to personu tiesības, kuru dati tiek izmantoti, piekļūt un kontrolēt viņu dati. Šie noteikumi, iespējams, atrisinās šādus jautājumus:

instagram viewer

  • Kādus datus var savākt?
  • Vai daži privātie dati AI jāuzskata par tabu?
  • Kā AI uzņēmumiem būtu jāapstrādā sensitīvi personas dati, piemēram, veselības ieraksti vai biometriskā informācija?
  • Vai AI uzņēmumiem būtu jāievieš mehānismi, lai personas varētu viegli pieprasīt savu personas datu dzēšanu vai labošanu?
  • Kādas ir sekas AI uzņēmumiem, kas neievēro datu privātuma noteikumus? Kā būtu jāuzrauga atbilstība un kā jānodrošina izpilde?
  • Varbūt vissvarīgākais ir tas, kāds standarts AI uzņēmumiem būtu jāievieš, lai nodrošinātu to rīcībā esošās informācijas sensitīvā rakstura drošību?

Šie un daži citi jautājumi veidoja būtību kāpēc ChatGPT Itālijā uz laiku tika aizliegts. Ja šīs bažas netiks novērstas, mākslīgā intelekta telpa var kļūt par mežonīgiem rietumiem datu privātumam, un Itālijas aizliegums var izrādīties par paraugu citu pasaules valstu aizliegumiem.

2. Ētiskā AI ietvara izstrāde

AI uzņēmumi bieži lepojas ar savu apņemšanos ievērot ētikas vadlīnijas AI sistēmu izstrādē. Vismaz uz papīra viņi visi ir atbildīgas AI attīstības atbalstītāji. Plašsaziņas līdzekļos Google vadītāji ir uzsvēruši, kā uzņēmums AI drošību un ētiku uztver nopietni. Tāpat "Drošs un ētisks AI" ir mantra OpenAI izpilddirektoram Semam Altmanam. Šie ir diezgan apsveicami.

Bet kurš izstrādā noteikumus? Kurš izlemj, kuras AI ētikas vadlīnijas ir pietiekami labas? Kurš izlemj, kā izskatās droša AI attīstība? Šobrīd šķiet, ka katram AI uzņēmumam ir savs prāts par atbildīgu un ētisku AI attīstību. OpenAI, Anthropic, Google, Meta, Microsoft, visi. Bīstami ir vienkārši paļauties uz AI uzņēmumiem, lai viņi rīkojas pareizi.

The nekontrolētas AI telpas sekas var būt katastrofālas. Ļaut atsevišķiem uzņēmumiem izlemt, kādas ētikas vadlīnijas pieņemt un kuras atteikties, ir līdzīga staigāšanai miegā mūsu ceļā uz AI apokalipsi. Atrisinājums? Skaidra ētiskā AI sistēma, kas nodrošina:

  • AI sistēmas netaisnīgi nenostāda neizdevīgākā stāvoklī vai nediskriminē personas vai noteiktas grupas, pamatojoties uz rasi, dzimumu vai sociālekonomisko stāvokli.
  • AI sistēmas ir drošas, drošas un uzticamas, un tās samazina neparedzētu seku vai kaitīgas rīcības risku.
  • AI sistēmas ir veidotas, paturot prātā plašāku AI tehnoloģiju ietekmi uz sabiedrību.
  • Ka cilvēki saglabā galīgo kontroli pār AI sistēmām un lēmumu pieņemšanu pārredzamā veidā.
  • AI sistēmas ir apzināti ierobežotas tādos veidos, kas ir izdevīgi cilvēkiem.

3. Īpaša regulatīvā aģentūra

Sakarā ar iespējamo ietekmi uz cilvēku civilizāciju, diskusija par AI drošību parasti notiek paralēli veselības krīzes vai kodolkatastrofas riskam. Lai izvairītos no iespējamiem kodolnegadījumiem, ir nepieciešama īpaša aģentūra, piemēram, ASV NRC (Kodolenerģijas regulēšanas komisija). Lai izvairītos no bīstamu veselības krīžu riska, ir jāizveido FDA (Pārtikas un zāļu pārvalde)

Tāpat, lai nodrošinātu, ka mākslīgā intelekta telpā viss nenotiek greizi, ir nepieciešama īpaša aģentūra, kas ir līdzīga FDA un NRC, jo AI turpina agresīvi iebrukt visās mūsu dzīves jomās. Diemžēl jautājums par AI regulējumu valstī ir sarežģīts. Jebkuras specializētas regulatīvās aģentūras darbs, visticamāk, būs mokoši grūts bez pārrobežu sadarbības. Tāpat kā ASV NRC (Kodolenerģijas regulēšanas komisijai) ir jāstrādā roku rokā ar Starptautisko atomenerģiju. Lai Aģentūra (IAEA) darbotos vislabāk, jebkurai specializētai valsts AI regulatīvajai aģentūrai būtu nepieciešams arī starptautisks analogs.

Šāda aģentūra būtu atbildīga par:

  • AI noteikumu izstrāde
  • Atbilstības un izpildes nodrošināšana
  • AI projektu ētiskās pārskatīšanas procesa pārraudzība
  • Sadarbība un starpvalstu sadarbība AI drošības un ētikas jomā

4. Autortiesību un intelektuālā īpašuma problēmu risināšana

Esošie autortiesību likumi un tiesiskais regulējums sabrūk, saskaroties ar mākslīgo intelektu. AI rīki, jo īpaši ģeneratīvie AI rīki, ir izstrādāti, liek tiem šķist publiski apstiprināta autortiesību pārkāpumu mašīna, ar kuru jūs neko nevarat darīt.

Kā? Daudzas mūsdienu AI sistēmas tiek apmācītas, izmantojot ar autortiesībām aizsargātus materiālus. Jūs zināt, ar autortiesībām aizsargāti raksti, ar autortiesībām aizsargātas dziesmas, ar autortiesībām aizsargāti attēli utt. Šādi instrumenti patīk ChatGPT, Bing AI un Google Bard var darīt tās satriecošās lietas, ko viņi dara.

Lai gan šīs sistēmas nepārprotami izmanto cilvēku intelektuālā īpašuma priekšrocības, veids, kā šīs AI sistēmas to dara neatšķiras no cilvēka, kurš lasa ar autortiesībām aizsargātu grāmatu, klausās ar autortiesībām aizsargātas dziesmas vai skatās ar autortiesībām aizsargātas attēlus.

Varat lasīt ar autortiesībām aizsargātu grāmatu, uzzināt no tās jaunus faktus un izmantot šos faktus kā pamatu savai grāmatai. Varat arī klausīties ar autortiesībām aizsargātu dziesmu, lai gūtu iedvesmu savas mūzikas radīšanai. Abos gadījumos jūs izmantojāt ar autortiesībām aizsargātus materiālus, taču tas ne vienmēr nozīmē, ka atvasinātais produkts pārkāpj oriģināla autortiesības.

Lai gan tas ir loģisks skaidrojums, lai izskaidrotu nekārtību, ko AI rada autortiesību likumi, tas joprojām kaitē autortiesību un intelektuālā īpašuma īpašniekiem. Ņemot to vērā, ir nepieciešami noteikumi, lai:

  • Skaidri definējiet visu AI sistēmas dzīves ciklā iesaistīto pušu atbildību un pienākumus. Tas ietver katras puses lomu noskaidrošanu, sākot no AI izstrādātājiem līdz galalietotājiem, lai nodrošinātu atbildību puses tiek sauktas pie atbildības par jebkādiem AI izdarītiem autortiesību vai intelektuālā īpašuma pārkāpumiem sistēmas.
  • Pastipriniet esošos autortiesību regulējumus un, iespējams, ieviesiet AI īpašus autortiesību likumus.
  • Lai nodrošinātu inovāciju AI telpā, vienlaikus aizsargājot oriģinālo satura veidotāju tiesības, AI Noteikumos būtu atkārtoti jādefinē godīgas izmantošanas un pārveidojoša darba jēdzieni saistībā ar AI radīts saturs. Ir vajadzīgas skaidrākas definīcijas un vadlīnijas, lai nodrošinātu, ka AI telpa var turpināt uzlaboties, vienlaikus ievērojot autortiesību robežas. Ir svarīgi panākt līdzsvaru starp inovācijām un satura veidotāju tiesību saglabāšanu.
  • Skaidri ceļi sadarbībai ar tiesību īpašniekiem. Ja AI sistēmas vienalga izmantos cilvēku intelektuālo īpašumu, ir jābūt skaidriem ceļiem vai sistēmām AI izstrādātājiem un tiesību īpašniekiem sadarboties, jo īpaši attiecībā uz finansiālām kompensācijām, ja šādu intelektuālo īpašumu atvasinātais darbs ir komercializēts.

AI regulējums ir ļoti vajadzīgs labojums

Lai gan mākslīgais intelekts ir kļuvis par daudzsološu risinājumu daudzām mūsu sabiedrības problēmām, AI pati par sevi strauji kļūst par problēmu, kurai nepieciešams steidzams risinājums. Ir pienācis laiks spert soli atpakaļ, pārdomāt un veikt nepieciešamos labojumus, lai nodrošinātu AI pozitīvo ietekmi uz sabiedrību. Mums izmisīgi ir steidzami jāpārkalibrē mūsu pieeja AI sistēmu veidošanai un lietošanai.