Microsoft Tay AI no daudzsološa AI kļuva par pilnīgu katastrofu mazāk nekā vienas dienas laikā. Lūk, ko uzņēmums uzzināja.

AI tērzēšanas roboti, piemēram, ChatGPT, arvien vairāk kļūst par mūsdienu tehnoloģiju neatņemamu sastāvdaļu, taču daudziem nezināms, ka ģeneratīvais AI ne vienmēr bija tik labs kā šodien. Faktiski 2016. gadā Microsoft izstrādātais tērzēšanas robots Tay mums parādīja, cik ātri AI var atspēlēties.

Izpētīsim, kas bija Microsoft AI tērzēšanas robots Tay, kāpēc tas neizdevās, tā strīdus un atziņas, ko uzņēmums guva pēc katastrofālās neveiksmes.

Kas bija Microsoft Tay?

Tay bija Microsoft izstrādāts mākslīgā intelekta tērzēšanas robots, kas 2016. gada 23. martā tika darīts pieejams, izmantojot Twitter. Tērzēšanas robots tika izstrādāts ASV jauniešiem vecumā no 18 līdz 24 gadiem "izklaides nolūkos" un "eksperimentēšanai un sarunvalodas izpratnes izpētei".

Tay nebija paredzēts kā izsmalcināts tērzēšanas robots, piemēram, ChatGPT, bet gan draudzīgs AI robots pakalpojumā Twitter, ar kuru jūs varētu sarunāties, piemēram, Mans AI vietnē Snapchat, bet socializācijai.

instagram viewer

Kāpēc Microsoft slēdza Tay darbību?

Microsoft noņēma Tay 24 stundu laikā pēc tiešraides — pamatota iemesla dēļ. Gandrīz uzreiz pēc Tay ieviešanas Twitter lietotāji sāka ļaunprātīgi izmantot pakalpojumu, barojot tērzēšanas robotu dezinformāciju, mācot tai nievājošus terminus un mudinot to kļūt arvien aizskarošākam, lai tikai redzētu, cik tālu tā ir ietu.

Un tālu tas patiešām gāja. Dažu stundu laikā pēc palaišanas Tejs tvītoja dažus no aizskarošākajiem rasu apvainojumiem, izplatīja naida runu, reklamēja nacismu un pat iedvesmoja "rasu karu". Ak! Skaidrs, ka Microsoft klājās šausmīgi, un tas nevarēja ļaut pakalpojumam turpināties.

Iekšā ziņu oficiālajā Microsoft emuārā, Microsoft korporatīvais viceprezidents Pīters Lī piebalsoja to pašu:

Mēs ļoti atvainojamies par Tay netīšiem aizskarošajiem un aizskarošajiem tvītiem, kas neatspoguļo ne to, kas mēs esam, ne to, ko mēs pārstāvam, ne arī to, kā mēs izstrādājām Tay. Tay tagad ir bezsaistē, un mēs centīsimies atgriezt Teju tikai tad, kad būsim pārliecināti, ka varam labāk paredzēt ļaunprātīgus nodomus, kas ir pretrunā ar mūsu principiem un vērtībām.

Tay sabrukums ir tikai viens no daudzajiem mākslīgā intelekta briesmas un spēcīgs atgādinājums par to, kāpēc tā izstrāde jāveic ar vislielāko piesardzību un pārraudzību.

6 nodarbības, ko Microsoft apguva pēc Tay

Tay bija pilnīga katastrofa, taču tā arī mācīja Microsoft dažas būtiskas mācības attiecībā uz AI rīku izstrādi. Un, lai gan tas ir tā vērts, tas, iespējams, ir labāks par to, ka Microsoft agrāk nekā vēlāk ir apguvis savas mācības, kas ļāva tai gūt panākumus pār Google un izstrādāt jauno. Ar AI darbināms Bing pārlūks.

Šeit ir dažas no šīm nodarbībām:

1. Internets ir pilns ar troļļiem

Internets ir pilns ar troļļiem, un tas nav gluži jaunums, vai ne? Acīmredzot tā tas bija Microsoft 2016. gadā. Mēs nesakām, ka tērzēšanas robota izveidei "izklaides nolūkos", kuru mērķauditorija ir 18 līdz 24 gadus veci, ir kāds sakars ar pakalpojuma ļaunprātīgas izmantošanas biežumu. Tomēr tā noteikti nebija pati gudrākā ideja.

Cilvēki, protams, vēlas pārbaudīt jauno tehnoloģiju robežas, un galu galā izstrādātāja uzdevums ir atbildēt par šiem ļaunprātīgajiem uzbrukumiem. Savā ziņā iekšējie troļļi darbojas kā atgriezeniskās saites mehānisms kvalitātes nodrošināšanai, taču tas nenozīmē, ka tērzēšanas robots ir jāatlaiž bez pienācīgiem drošības pasākumiem pirms palaišanas.

2. AI nevar intuitīvi atšķirt labo un slikto

Labā un ļaunā jēdziens ir kaut kas tāds, ko mākslīgais intelekts intuitīvi nesaprot. Tam ir jābūt ieprogrammētam, lai simulētu zināšanas par to, kas ir pareizi un nepareizi, kas ir morāli un amorāli un kas ir normāli un savdabīgi.

Šīs īpašības cilvēkiem kā sociālām radībām ir vairāk vai mazāk dabiski, taču mākslīgais intelekts nevar pieņemt neatkarīgus spriedumus, izjust empātiju vai izjust sāpes. Tāpēc, kad Twitter lietotāji baroja Tay ar visa veida propagandu, robots vienkārši sekoja līdzi, neapzinoties apkopotās informācijas ētiku.

3. Neapmāciet AI modeļus, izmantojot cilvēku sarunas

Tay tika izveidots, "iegūstot būtiskus publiskos datus un izmantojot AI un redakciju, ko izstrādājuši darbinieki, tostarp improvizācijas komiķi." AI modeļa apmācība, izmantojot cilvēku sarunas internetā, ir šausmīgi ideja.

Un pirms vainojat to Twitter, ziniet, ka rezultāts, iespējams, būtu bijis vienāds neatkarīgi no platformas. Kāpēc? Jo cilvēki internetā vienkārši nav paši labākie. Viņi kļūst emocionāli, lieto slenga vārdus un izmanto savu anonimitāti, lai būtu nelietīgi.

4. AI trūkst veselā saprāta, un tas nesaņem sarkasmu

Mūsdienās mākslīgais intelekts šķiet intuitīvāks (vai, precīzāk sakot, labāk simulē intuīciju), bet joprojām dažreiz cīnās ar sarkasma un runas figūru atpazīšanu. Vēl jo vairāk tā bija patiesība 2016. gadā. Tas, kas ir skaidrs cilvēkiem, nav skaidrs AI; citiem vārdiem sakot, trūkst veselā saprāta.

AI, piemēram, Tejs, nesaprot, kāpēc cilvēki ir tādi, kādi mēs esam, rīkojas tā, kā mēs rīkojamies, un katra indivīda ekscentriskumu. Tas var uzvesties un izklausīties cilvēciski pārsteidzošā mērā, taču ar labu programmēšanu var sasniegt tikai tik tālu.

5. AI ir jāieprogrammē, lai noraidītu nederīgus pieprasījumus

AI ir ļoti jūtams, un tas ir jāieprogrammē, lai noraidītu pieprasījumus, kas veicina kaitējumu. Pat šodien, pēc visiem mūsu sasniegumiem dabiskās valodas apstrādē, cilvēki joprojām atrod valodu nepilnības likt "halucinēt" AI tērzēšanas robotiem, piemēram, ChatGPT un nodrošināt rezultātus, kurus bija paredzēts ierobežot.

Lieta ir tāda, ka mākslīgais intelekts ir pilnīgi paklausīgs, kas, iespējams, ir tā lielākā stiprā un vājā puse. Viss, ko nevēlaties, lai tērzēšanas robots darītu, ir jāieprogrammē tajā manuāli.

6. AI tērzēšanas robotus nekad nedrīkst atstāt bez uzraudzības

Kamēr AI nevar regulēt sevi, to nevar atstāt bez uzraudzības. Jūs varat domāt par mūsdienu AI kā par brīnumbērnu; dažos veidos tas ir izcili, bet tomēr tas ir bērns. Ja tos atstāj bez uzraudzības, cilvēki izmantos tās vājās puses, un Tejs tam bija lielisks piemērs.

AI ir rīks, tāpat kā internets, taču ātrums un mērogs, ar kādu AI var atspēlēties, ir daudz lielāks nekā tas, ko mēs pieredzējām interneta agrīnajos laikos.

AI nepieciešama pastāvīga uzraudzība un regulēšana

Tay nav vienīgais tērzēšanas robots, kas ir kļuvis negodīgs — ir bijuši arī daudzi citi līdzīgi gadījumi. Taču tas, kas to izcēlās, ir milzīgais ātrums, kādā tas radās, un fakts, ka to izgatavoja tehnoloģiju gigants, piemēram, Microsoft.

Šādi piemēri parāda, cik uzmanīgiem mums jābūt, izstrādājot AI rīkus, it īpaši, ja tie ir paredzēti lietošanai parastajiem cilvēkiem.