Neatkarīgi no tā, vai tie ir slikti dati vai slikti lietotāji, mākslīgais intelekts, kas izveidots, izmantojot mašīnmācīšanos, var izraisīt nopietnas kļūdas.

Mašīnmācība ir lielisks veids, kā izveidot mākslīgo intelektu, kas ir spēcīgs un pielāgojas tā apmācības datiem. Bet dažreiz šie dati var radīt problēmas. Citreiz problēma ir veids, kā cilvēki izmanto šos AI rīkus.

Šeit ir apskatīti daži augsta līmeņa incidenti, kuros mašīnmācīšanās izraisīja problemātiskus rezultātus.

1. Google attēlu meklēšanas rezultātu neveiksmes

Google meklēšana ir padarījusi navigāciju tīmeklī daudz vienkāršāku. Dzinēja algoritms, aprēķinot rezultātus, ņem vērā dažādas lietas. Taču algoritms mācās arī no lietotāju trafika, kas var radīt problēmas ar meklēšanas rezultātu kvalitāti.

Nekur tas nav redzams tik skaidri kā attēlu rezultātos. Tā kā lapās, kas saņem lielu trafiku, visticamāk, tiks rādīti attēli, stāsti, kas piesaista lielu lietotāju skaitu, tostarp klikšķu ēsma, var tikt uzskatīti par prioritāti.

Piemēram, attēlu meklēšanas rezultāti vaicājumam “skvoteru nometnes Dienvidāfrikā” izraisīja domstarpības, kad tika atklāts, ka tajās galvenokārt attēloti baltie Dienvidāfrikas iedzīvotāji. Tas ir par spīti statistikai, kas liecina, ka lielākā daļa neformālos mājokļos dzīvojošo ir melnādainie Dienvidāfrikas iedzīvotāji.

instagram viewer

Google algoritmā izmantotie faktori arī nozīmē, ka interneta lietotāji var manipulēt ar rezultātiem. Piemēram, lietotāju kampaņa ietekmēja Google attēlu meklēšanas rezultātus tādā mērā, ka, meklējot vienumu “idiots”, kādu laiku tika rādīti bijušā ASV prezidenta Donalda Trampa attēli.

2. Microsoft Bots Tajs pārvērtās par nacistu

Ar AI darbināmi tērzēšanas roboti ir ārkārtīgi populāri, īpaši tie, kurus darbina lieli valodu modeļi, piemēram, ChatGPT. ChatGPT ir vairākas problēmas, taču tā veidotāji ir mācījušies arī no citu uzņēmumu kļūdām.

Viens no visizplatītākajiem tērzēšanas robotu incidentiem bija Microsoft mēģinājums palaist savu tērzēšanas robotu Tay.

Tay atdarināja pusaudžu meitenes valodas modeļus un mācījās, mijiedarbojoties ar citiem Twitter lietotājiem. Tomēr viņa kļuva par vienu no bēdīgi slavenākajām mākslīgā intelekta kļūdām, kad sāka dalīties ar nacistu izteikumiem un rasu apvainojumiem. Izrādās, ka troļļi pret to bija izmantojuši mākslīgā intelekta mašīnmācīšanos, pārpludinot to ar fanātisku mijiedarbību.

Neilgi pēc tam Microsoft pilnībā pārņēma Tay bezsaistē.

3. AI sejas atpazīšanas problēmas

Sejas atpazīšanas AI bieži nonāk virsrakstos nepareizu iemeslu dēļ, piemēram, stāsti par sejas atpazīšanu un privātuma problēmām. Taču šim mākslīgajam intelektam ir problemātiska vēsture, mēģinot atpazīt krāsainus cilvēkus.

2015. gadā lietotāji atklāja, ka Google fotoattēli dažus melnādainos cilvēkus klasificē kā gorillas. 2018. gadā ACLU pētījums parādīja, ka Amazon sejas identifikācijas programmatūra Rekognition identificēja 28 ASV Kongresa locekļi tiek turēti aizdomās par policiju, un viltus pozitīvie rezultāti nesamērīgi ietekmē cilvēkus krāsa.

Vēl viens incidents bija saistīts ar Apple Face ID programmatūru, kas nepareizi identificēja divas dažādas ķīniešu sievietes kā vienu un to pašu personu. Tā rezultātā iPhone X īpašnieka kolēģis varēja atbloķēt tālruni.

Ārkārtēju seku piemērā sejas atpazīšanas mākslīgais intelekts ir izraisījis vairāku cilvēku nelikumīgus arestus. Vadu ziņoja par trim šādiem gadījumiem.

Tikmēr datorzinātnieks Džojs Buolamvini atgādināja, ka, strādājot pie sejas atpazīšanas tehnoloģijas, bieži bija jāvalkā balta maska, lai programmatūra viņu atpazītu. Lai atrisinātu šādas problēmas, Buolamwini un citi IT profesionāļi pievērš uzmanību AI novirzes problēmai un nepieciešamībai pēc iekļaujošām datu kopām.

4. Deepfakes, ko izmanto mānīšanai

Lai gan cilvēki jau sen ir izmantojuši Photoshop, lai izveidotu viltus attēlus, mašīnmācīšanās to paceļ jaunā līmenī. Deepfakes izmanto dziļās mācīšanās AI, lai izveidotu viltotus attēlus un videoklipus. Programmatūra, piemēram, FaceApp, ļauj apmainīt objektus no viena videoklipa uz citu.

Taču daudzi cilvēki izmanto programmatūru dažādiem ļaunprātīgiem mērķiem, tostarp slavenību seju ievietošanai pieaugušajiem paredzētos videoklipos vai viltus videoklipu ģenerēšanai. Tikmēr interneta lietotāji ir palīdzējuši uzlabot tehnoloģiju, lai padarītu arvien grūtāk atšķirt īstus videoklipus no viltotiem. Rezultātā šis AI veids ir ļoti spēcīgs viltus ziņu un mānījumu izplatīšanas ziņā.

Lai demonstrētu tehnoloģiju jaudu, direktors Džordans Pīls un BuzzFeed izpilddirektors Džons Pereti izveidoja deepfake video, kurā redzams, kā šķiet, ka bijušais ASV prezidents Baraks Obama sniedz PSA, izmantojot spēku dziļi viltojumi.

Viltus attēlu jaudu ir paātrinājuši attēlu ģeneratori, kurus darbina AI. Vīrusu ieraksti 2023. gadā, kuros attēlots Donalda Trampa arests un katoļu pāvests jakā, izrādījās ģeneratīvas AI rezultāts.

Tur ir padomi, ko varat ievērot, lai pamanītu AI ģenerētu attēlu, taču tehnoloģija kļūst arvien sarežģītāka.

5. Darbinieki saka, ka Amazon AI nolēma pieņemt darbā vīriešus, ir labāk

2018. gada oktobrī, Reuters ziņoja, ka Amazon bija jāatsakās no darba meklēšanas rīka pēc tam, kad programmatūras AI nolēma, ka vīriešu kandidātiem ir priekšroka.

Darbinieki, kuri vēlējās palikt anonīmi, ieradās, lai pastāstītu Reuters par savu darbu pie projekta. Izstrādātāji vēlējās, lai AI noteiktu labākos kandidātus darbam, pamatojoties uz viņu CV. Tomēr projektā iesaistītie cilvēki drīz vien pamanīja, ka AI sodīja sievietes kandidātes. Viņi paskaidroja, ka AI kā apmācību datu kopu izmantoja pēdējo desmit gadu CV, no kuriem lielākā daļa bija no vīriešiem.

Rezultātā AI sāka filtrēt CV, pamatojoties uz atslēgvārdu "sievietes". Atslēgvārds parādījās CV pie tādām aktivitātēm kā "sieviešu šaha kluba kapteine". Kamēr izstrādātāji mainīja AI, lai novērstu šo sieviešu CV sodīšanu, Amazon galu galā atcēla projektu.

6. Jailbroken Chatbots

Lai gan jaunākiem tērzēšanas robotiem ir ierobežojumi, kas neļauj tiem sniegt atbildes, kas ir pretrunā to pakalpojumu sniegšanas noteikumiem, lietotāji meklē veidus, kā uzlauzt rīkus aizliegta satura nodrošināšanai.

2023. gadā Forcepoint drošības pētnieks Ārons Mulgrovs spēja izveidot nulles dienas ļaunprātīgu programmatūru, izmantojot ChatGPT uzvednes.

"Vienkārši izmantojot ChatGPT uzvednes un neierakstot nekādu kodu, mēs varējām izveidot ļoti progresīvu uzbrukumu tikai dažu stundu laikā," sacīja Mulgrs. Forcepoint post.

Tiek ziņots, ka lietotāji arī ir spējuši iegūt tērzēšanas robotus, lai sniegtu viņiem norādījumus, kā izveidot bumbas vai nozagt automašīnas.

7. Pašbraucošu automašīnu avārijas

Entuziasms par autonomajiem transportlīdzekļiem ir mazinājies jau no sākotnējās ažiotāžas, ko izraisīja pašbraucošā AI pieļautās kļūdas. 2022. gadā The Washington Post ziņoja, ka aptuveni gada laikā ASV Nacionālajai ceļu satiksmes drošības pārvaldei tika ziņots par 392 avārijām, kurās iesaistītas uzlabotas vadītāja palīdzības sistēmas.

Šajās avārijās tika gūti nopietni ievainojumi un seši cilvēki gāja bojā.

Lai gan tas nav atturējis tādus uzņēmumus kā Tesla no pilnībā autonomiem transportlīdzekļiem, tas ir noticis pauda bažas par negadījumu pieaugumu, jo arvien vairāk automašīnu ar pašbraucošu programmatūru iebrauc ceļiem.

Mašīnmācīšanās AI nav drošs

Lai gan mašīnmācīšanās var radīt jaudīgus AI rīkus, tie nav imūni pret sliktiem datiem vai cilvēku manipulācijām. Neatkarīgi no tā, vai ir kļūdaini apmācības dati, mākslīgā intelekta tehnoloģijas ierobežojumi vai slikti dalībnieki, šis AI veids ir izraisījis daudz negatīvu incidentu.