Mākslīgā intelekta spējas eksponenciāli paplašinās, AI tagad tiek izmantots nozarēs, sākot no reklāmas līdz medicīnas pētījumiem. AI izmantošana jutīgākās jomās, piemēram, sejas atpazīšanas programmatūrā, algoritmu pieņemšanā darbā un veselības aprūpes nodrošināšanā, ir izraisījusi diskusijas par neobjektivitāti un taisnīgumu.

Aizspriedumi ir labi izpētīts cilvēka psiholoģijas aspekts. Pētījumi regulāri atklāj mūsu neapzinātās vēlmes un aizspriedumus, un tagad mēs redzam, ka AI atspoguļo dažus no šiem aizspriedumiem savos algoritmos.

Tātad, kā mākslīgais intelekts kļūst neobjektīvs? Un kāpēc tas ir svarīgi?

Kā AI kļūst tendenciozs?

Vienkāršības labad šajā rakstā mēs atsaucamies mašīnmācīšanās un dziļa mācīšanās algoritmi kā AI algoritmi vai sistēmas.

Pētnieki un izstrādātāji var ieviest neobjektivitāti AI sistēmās divos veidos.

Pirmkārt, mašīnmācīšanās algoritmos nejauši var iestrādāt pētnieku kognitīvās aizspriedumus. Kognitīvie aizspriedumi ir neapzināta cilvēka uztvere, kas var ietekmēt to, kā cilvēki pieņem lēmumus. Tas kļūst par nozīmīgu jautājumu, ja aizspriedumi attiecas uz cilvēkiem vai cilvēku grupām un var kaitēt šiem cilvēkiem.

Šīs neobjektivitātes var ieviest tieši, bet nejauši, vai arī pētnieki varētu apmācīt AI ar datu kopām, kuras pašas ir ietekmējušas neobjektivitāte. Piemēram, sejas atpazīšanas AI varētu apmācīt, izmantojot datu kopu, kurā iekļautas tikai gaišas sejas. Šajā gadījumā AI darbosies labāk, ja tiek galā ar gaišām sejām, nekā tumšs. Šī AI aizspriedumu forma ir pazīstama kā negatīvs mantojums.

Otrkārt, aizspriedumi var rasties, ja AI tiek apmācīts par nepilnīgām datu kopām. Piemēram, ja mākslīgais intelekts tiek apmācīts datu kopā, kurā ietilpst tikai datorzinātnieki, tas neatspoguļos visus iedzīvotājus. Tas noved pie algoritmiem, kas nespēj sniegt precīzas prognozes.

Reālās pasaules AI aizspriedumu piemēri

Nesen ir bijuši vairāki labi ziņoti AI neobjektivitātes piemēri ilustrē briesmas ļaujot šiem aizspriedumiem iezagties.

ASV balstīta veselības aprūpes prioritāšu noteikšana

2019. gadā tika izstrādāts mašīnmācīšanās algoritms, lai palīdzētu slimnīcām un apdrošināšanas sabiedrībām noteikt, kuri pacienti no konkrētām veselības aprūpes programmām gūs visvairāk labumu. Pamatojoties uz aptuveni 200 miljonu cilvēku datu bāzi, algoritms deva priekšroku baltajiem pacientiem, nevis melnajiem.

Tika noteikts, ka tas bija saistīts ar kļūdainu algoritma pieņēmumu par dažādām veselības aprūpes izmaksām starp melnādainajiem un baltajiem cilvēkiem, un aizspriedumi galu galā tika samazināti par 80%.

COMPAS

Korektīvo likumpārkāpēju pārvaldības profilēšana alternatīvām sankcijām jeb COMPAS bija AI algoritms, kas paredzēts, lai prognozētu, vai konkrēti cilvēki atkārtoti izdarīs likumpārkāpumu. Algoritms melnādainiem likumpārkāpējiem radīja dubultu nepatiesu pozitīvu rezultātu, salīdzinot ar baltajiem likumpārkāpējiem. Šajā gadījumā gan datu kopa, gan modelis bija kļūdaini, ieviešot lielu neobjektivitāti.

Amazon

Pieņemšanas algoritms, ko Amazon izmanto, lai noteiktu pretendentu piemērotību, tika atklāts 2015. gadā, lai vīrieši tiktu vairāk atbalstīti nekā sievietes. Tas notika tāpēc, ka datu kopā gandrīz vienīgi bija vīrieši un viņu CV, jo lielākā daļa Amazon darbinieku ir vīrieši.

Kā apturēt AI aizspriedumus

AI jau ir revolucionārs veids, kā mēs strādājam katrā nozarē. Neobjektīvi ir neobjektīvi sistēmas, kas kontrolē sensitīvus lēmumu pieņemšanas procesus. Labākajā gadījumā tas samazina uz AI balstītu pētījumu kvalitāti. Sliktākajā gadījumā tas aktīvi kaitē minoritāšu grupām.

Ir piemēri AI algoritmiem, kas jau tiek izmantoti palīdz cilvēkiem pieņemt lēmumus samazinot cilvēka kognitīvo aizspriedumu ietekmi. Sakarā ar to, kā tiek apmācīti mašīnmācīšanās algoritmi, tie var būt precīzāki un mazāk tendenciozi nekā tajā pašā stāvoklī esošie cilvēki, kā rezultātā tiek pieņemta taisnīgāka lēmumu pieņemšana.

Bet, kā mēs esam parādījuši, ir arī pretējs. Riski, ka ļaus mākslīgi mākslīgi izmantot un aizkavēt AI aizspriedumus, var atsvērt dažus no iespējamiem ieguvumiem.

Dienas beigās, AI ir tikpat labs kā dati, ar kuriem tas tiek apmācīts. Neobjektīvo algoritmu izstrāde prasa plašu un rūpīgu datu kopu iepriekšēju analīzi, nodrošinot, ka datos nav netiešu noviržu. Tas ir grūtāk, nekā izklausās, jo tik daudz mūsu aizspriedumu ir bezsamaņā un tos bieži ir grūti identificēt.

Izaicinājumi AI aizspriedumu novēršanā

Izstrādājot AI sistēmas, ir jānovērtē katrs solis, lai spētu algoritmā iestrādāt neobjektivitāti. Viens no galvenajiem faktoriem, kas novērš neobjektivitāti, ir nodrošināt, ka taisnīgums, nevis tendenciozitāte, tiek “ievārīts” algoritmā.

Taisnīguma noteikšana

Taisnīgums ir samērā grūti definējams jēdziens. Patiesībā tās ir debates, kas nekad nav panākušas vienprātību. Lai viss būtu vēl grūtāk, izstrādājot AI sistēmas, taisnīguma jēdziens ir jādefinē matemātiski.

Piemēram, vai, runājot par Amazon algošanas algoritmu, vai taisnīgums izskatās kā ideāls 50/50 vīriešu un sieviešu dalījums? Vai cita proporcija?

Funkcijas noteikšana

Pirmais AI izstrādes solis ir precīzi noteikt, ko tas sasniegs. Ja izmantotu COMPAS piemēru, algoritms paredzētu noziedznieku atkārtotas izdarīšanas varbūtību. Pēc tam jānosaka skaidras datu ievades, lai algoritms darbotos. Tam var būt nepieciešams definēt svarīgus mainīgos, piemēram, iepriekšējo nodarījumu skaitu vai izdarīto nodarījumu veidu.

Pareiza šo mainīgo definēšana ir grūts, bet svarīgs solis, lai nodrošinātu algoritma taisnīgumu.

Datu kopas izveidošana

Kā esam aprakstījuši, galvenais AI neobjektivitātes cēlonis ir nepilnīgi, nepārstāvoši vai neobjektīvi dati. Tāpat kā sejas atpazīšanas AI gadījumā, pirms mašīnmācīšanās procesa ir rūpīgi jāpārbauda ievades dati par neobjektivitāti, piemērotību un pilnīgumu.

Atribūtu izvēle

Algoritmos dažus atribūtus var ņemt vērā vai nē. Atribūti var ietvert dzimumu, rasi vai izglītību - būtībā visu, kas var būt svarīgs algoritma uzdevumam. Atkarībā no izvēlētajiem atribūtiem var nopietni ietekmēt algoritma prognozēšanas precizitāti un novirzi. Problēma ir tā, ka ir ļoti grūti izmērīt, cik algoritms ir neobjektīvs.

AI aizspriedumi nav šeit, lai paliktu

AI neobjektivitāte rodas, ja algoritmi neobjektīvo ievadu dēļ prognozē neobjektīvi vai neprecīzi. Tas notiek, kad algoritma izstrādes un apmācības laikā tiek atspoguļoti vai pastiprināti neobjektīvi vai nepilnīgi dati.

Labā ziņa ir tā, ka, palielinoties finansējumam AI pētījumiem, mēs, visticamāk, redzēsim jaunas metodes AI neobjektivitātes mazināšanai un pat novēršanai.

E-pasts
5 izplatīti mīti par mākslīgo intelektu, kas neatbilst patiesībai

Uzstādīsim rekordu par dažām izplatītām viltībām, kas ap AI.

Lasiet Tālāk

Saistītās tēmas
  • Tehnoloģija izskaidrota
  • Mākslīgais intelekts
  • Mašīnmācība
Par autoru
Džeiks Harfīlds (Publicēti 6 raksti)

Džeiks Harfīlds ir ārštata rakstnieks, kurš dzīvo Pērtā, Austrālijā. Kad viņš neraksta, viņš parasti ir laukā, fotografējot vietējos savvaļas dzīvniekus. Jūs varat viņu apmeklēt www.jakeharfield.com

Vairāk no Džeika Harfīlda

Abonējiet mūsu biļetenu

Pievienojieties mūsu informatīvajam izdevumam par tehniskiem padomiem, atsauksmēm, bezmaksas e-grāmatām un ekskluzīviem piedāvājumiem!

Vēl viens solis !!!

Lūdzu, apstipriniet savu e-pasta adresi e-pastā, kuru tikko nosūtījām.

.