Ģeneratīvā AI ir lieliska, taču tā vienmēr sniedz savu informāciju ar absolūtu autoritāti. Tas ir lieliski, ja vien tas nav patiesības halucinācijas.

Mākslīgā intelekta (AI) halucinācijas izklausās mulsinoši. Jūs droši vien domājat: "Vai halucinācijas nav cilvēka parādība?" Jā, agrāk tas bija tikai cilvēks parādība, līdz AI sāka parādīt tādas cilvēka īpašības kā sejas atpazīšana, pašmācība un runa atzīšanu.

Diemžēl AI ieguva dažus negatīvus atribūtus, tostarp halucinācijas. Tātad, vai AI halucinācijas ir līdzīgas cilvēku halucinācijām?

Kas ir AI halucinācijas?

Mākslīgā intelekta halucinācijas rodas, ja AI modelis ģenerē rezultātus, kas atšķiras no gaidītā. Ņemiet vērā, ka daži AI modeļi ir apmācīti apzināti ģenerēt izvades, kas nav saistītas ar reālās pasaules ievadi (datiem).

Piemēram, populārākie AI teksta-mākslas ģeneratori, piemēram, DALL-E 2, var radoši ģenerēt jaunus attēlus, kurus varam atzīmēt kā "halucinācijas", jo tie nav balstīti uz reāliem datiem.

AI halucinācijas lielos valodu apstrādes modeļos

instagram viewer

Apsvērsim, kā AI halucinācijas izskatītos lielā valodas apstrādes modelī, piemēram, ChatGPT. ChatGPT halucinācijas rezultātā robots sniegtu jums nepareizu faktu ar kādu apgalvojumu, tā ka jūs, protams, pieņemtu šādus faktus kā patiesību.

Vienkārši izsakoties, tie ir mākslīgi viedā tērzēšanas robota izdomāti paziņojumi. Šeit ir piemērs:

Pēc papildu vaicājuma ChatGPT atklāja šo:

AI halucinācijas datorredzē

Apskatīsim vēl vienu AI jomu, kurā var rasties AI halucinācijas: Datorredze. Tālāk esošajā viktorīnā ir parādīta 4x4 montāža ar divām vienībām, kas izskatās ļoti līdzīgas. Attēli ir BBQ kartupeļu čipsu un lapu sajaukums.

Uzdevums ir atlasīt kartupeļu čipsus, montāžā neiesitot nevienu lapu. Šis attēls datoram var šķist sarežģīts, un tas var nespēt atšķirt BBQ kartupeļu čipsus no lapām.

Lūk, vēl viena montāža ar pūdeļa un cūkgaļas diega bulciņu attēlu sajaukumu. Dators, visticamāk, nespēs tos atšķirt, tāpēc attēli tiek sajaukti.

Kāpēc rodas AI halucinācijas?

AI halucinācijas var rasties pretrunīgu piemēru dēļ — ievades dati, kas piemānās AI lietojumprogrammai tos nepareizi klasificēt. Piemēram, apmācot AI lietojumprogrammas, izstrādātāji izmanto datus (attēlu, tekstu vai citus); ja dati tiek mainīti vai izkropļoti, lietojumprogramma ievadi interpretē atšķirīgi, dodot nepareizu izvadi.

Turpretim, neskatoties uz izkropļojumiem, cilvēks joprojām var atpazīt un precīzi identificēt datus. Mēs to varam atzīmēt kā veselo saprātu — cilvēka īpašība AI vēl nepiemīt. Noskatieties, kā mākslīgais intelekts tiek maldināts ar pretrunīgiem piemēriem šajā videoklipā:

Attiecībā uz lieliem uz valodu balstītiem modeļiem, piemēram, ChatGPT un tā alternatīvas, halucinācijas var rasties no neprecīzas dekodēšanas no transformatora (mašīnmācīšanās modelis).

AI transformators ir dziļas mācīšanās modelis, kas izmanto sevis uzmanību (semantiskās attiecības starp vārdiem teikums), lai izveidotu tekstu, kas līdzīgs tam, ko cilvēks rakstītu, izmantojot kodētāju-dekodētāju (ievade-izeja) secība.

Tātad transformatori, daļēji uzraudzīts mašīnmācīšanās modelis, var ģenerēt jaunu teksta kopumu (izeju) no liela teksta datu korpusa, ko izmanto tā apmācībā (ievadē). Tas tiek darīts, paredzot nākamo vārdu sērijā, pamatojoties uz iepriekšējiem vārdiem.

Attiecībā uz halucinācijām, ja valodas modelis tika apmācīts uz nepietiekamiem un neprecīziem datiem un resursiem, ir sagaidāms, ka rezultāts būs izdomāts un neprecīzs. Valodas modelis var radīt stāstu vai stāstījumu bez loģiskām pretrunām vai neskaidrām saiknēm.

Tālāk esošajā piemērā ChatGPT tika lūgts ievadīt vārdu, kas līdzīgs vārdam "revolt" un sākas ar "b". Šeit ir tā atbilde:

Turpinot izmeklēšanu, tas turpināja sniegt nepareizas atbildes ar augstu pārliecības līmeni.

Tātad, kāpēc ChatGPT nespēj sniegt precīzu atbildi uz šiem norādījumiem?

Varētu būt, ka valodas modelis nav aprīkots, lai apstrādātu diezgan sarežģītas uzvednes, piemēram, šīs vai citas nevar precīzi interpretēt uzvedni, ignorējot uzvedni par līdzīga vārda došanu ar konkrētu alfabēts.

Kā pamanīt AI halucinācijas?

Tagad ir skaidrs, ka mākslīgā intelekta lietojumprogrammām ir iespēja radīt halucinācijas — ģenerēt atbildes citādi, pamatojoties uz sagaidāmo rezultātu (faktu vai patiesību), bez jebkāda ļaunprātīga nolūka. Un AI halucināciju pamanīšana un atpazīšana ir šādu lietojumprogrammu lietotāju ziņā.

Šeit ir daži veidi, kā pamanīt AI halucinācijas, izmantojot parastās AI lietojumprogrammas:

1. Lieli valodu apstrādes modeļi

Lai gan tas ir reti sastopams, ja pamanāt gramatikas kļūdu saturā, ko rada liels apstrādes modelis, piemēram, ChatGPT, tai vajadzētu pacelt uzacis un likt jums aizdomas par halucinācijām. Tāpat, ja teksta ģenerētais saturs neizklausās loģiski, neatbilst dotajam kontekstam vai neatbilst ievades datiem, jums vajadzētu aizdomas par halucinācijām.

Cilvēka sprieduma vai veselā saprāta izmantošana var palīdzēt atklāt halucinācijas, jo cilvēki var viegli noteikt, kad tekstam nav jēgas vai tas atbilst realitātei.

2. Datorredze

Kā mākslīgā intelekta, mašīnmācības un datorzinātņu nozare datorredze dod iespēju datoriem atpazīt un apstrādāt attēlus kā cilvēka acis. Izmantojot konvolucionālie neironu tīkli, viņi paļaujas uz neticami daudz vizuālo datu, ko izmanto viņu apmācībā.

Novirze no apmācībā izmantoto vizuālo datu modeļiem izraisīs halucinācijas. Piemēram, ja dators nav apmācīts ar tenisa bumbiņas attēliem, tas varētu to identificēt kā zaļu oranžu. Vai arī, ja dators atpazīst zirgu blakus cilvēka statujai kā zirgu blakus īstam cilvēkam, tad ir notikusi AI halucinācija.

Tātad, lai pamanītu datora redzes halucinācijas, salīdziniet ģenerēto rezultātu ar to, ko paredzēts redzēt [parastam] cilvēkam.

3. Pašbraucošās automašīnas

Attēla kredīts: Fords

Pateicoties mākslīgajam intelektam, pašbraucošās automašīnas pamazām iefiltrējas auto tirgū. Tādi pionieri kā Tesla Autopilot un Ford's BlueCruise ir cīnījušies par pašbraucošo automašīnu ainu. Jūs varat pārbaudīt kā un ko redz Tesla Autopilots lai gūtu priekšstatu par to, kā mākslīgais intelekts nodrošina pašbraucošu automašīnu darbību.

Ja jums pieder kāda no šādām automašīnām, jūs vēlētos zināt, vai jūsu mākslīgā intelekta automašīna nerada halucinācijas. Viena no pazīmēm būs, ja jūsu transportlīdzeklis braukšanas laikā novirzās no ierastajiem uzvedības modeļiem. Piemēram, ja transportlīdzeklis pēkšņi bremzē vai sagriežas bez redzama iemesla, jūsu mākslīgā intelekta transportlīdzeklis var izraisīt halucinācijas.

AI sistēmas var arī halucinēt

Cilvēki un AI modeļi piedzīvo halucinācijas atšķirīgi. Runājot par AI, halucinācijas attiecas uz kļūdainiem rezultātiem, kas ir jūdžu attālumā no realitātes vai kuriem nav jēgas konkrētās uzvednes kontekstā. Piemēram, AI tērzēšanas robots var sniegt gramatiski vai loģiski nepareizu atbildi vai nepareizi identificēt objektu trokšņa vai citu strukturālu faktoru dēļ.

AI halucinācijas neizraisa apzināts vai zemapziņas prāts, kā jūs varētu novērot cilvēkiem. Tas drīzāk izriet no AI sistēmas apmācībā un programmēšanā izmantoto datu neatbilstības vai nepietiekamības.