Tādi lasītāji kā jūs palīdz atbalstīt MUO. Veicot pirkumu, izmantojot saites mūsu vietnē, mēs varam nopelnīt filiāles komisiju. Lasīt vairāk.

Pēc OpenAI ChatGPT palaišanas sekoja satraukums, kam atbilst tikai daži tehnoloģiju produkti no interneta vēstures.

Lai gan daudzi cilvēki ir sajūsmā par šo jauno AI pakalpojumu, aizraušanās, ko juta citi, kopš tā laika ir pārtapusi bažās un pat bailēs. Studenti jau ar to krāpjas, un daudzi profesori atklāj esejas un uzdevumus, ko rakstījis AI tērzēšanas robots. Drošības speciālisti pauž bažas par to, ka krāpnieki un draudu veidotāji to izmanto, lai rakstītu pikšķerēšanas e-pastus un radītu ļaunprātīgu programmatūru.

Tātad, ņemot vērā visas šīs bažas, vai OpenAI zaudē kontroli pār vienu no spēcīgākajiem AI tērzēšanas robotiem, kas pašlaik ir tiešsaistē? Noskaidrosim.

Izpratne par to, kā darbojas ChatGPT

Pirms mēs varam iegūt skaidru priekšstatu par to, cik ļoti OpenAI zaudē kontroli pār ChatGPT, mums vispirms ir jāsaprot kā darbojas ChatGPT.

Īsumā, ChatGPT tiek apmācīts, izmantojot milzīgu datu kolekciju, kas iegūta no dažādiem interneta stūriem. ChatGPT apmācības datos ir iekļautas enciklopēdijas, zinātniskie raksti, interneta forumi, ziņu vietnes un zināšanu krātuves, piemēram, Wikipedia. Būtībā tas barojas ar milzīgo datu apjomu, kas pieejams globālajā tīmeklī.

instagram viewer

Pārlūkojot internetu, tajā tiek apkopotas zinātniskās atziņas, veselības padomi, reliģiskie teksti un visa veida labā informācija, ko varat iedomāties. Taču tajā tiek izsijāta arī daudz negatīvas informācijas: lāstu vārdi, NSFW un pieaugušajiem paredzēts saturs, informācija par ļaunprātīgas programmatūras izveidi un lielākā daļa slikto materiālu, ko varat atrast internetā.

Nav drošs veids, kā nodrošināt, ka ChatGPT mācās tikai no pozitīvas informācijas, vienlaikus atmetot slikto. Tehniski tas ir nepraktiski to darīt plašā mērogā, it īpaši AI, piemēram, ChatGPT, kam jāapmācas, izmantojot tik daudz datu. Turklāt daļu informācijas var izmantot gan labiem, gan ļauniem mērķiem, un ChatGPT nevarētu zināt tās nolūku, ja vien tā netiek ievietota plašākā kontekstā.

Tātad jau no paša sākuma jums ir AI, kas spēj "labo un ļauno". OpenAI pienākums ir nodrošināt, lai ChatGPT "ļaunā" puse netiktu izmantota neētisku ieguvumu gūšanai. Jautājums ir; vai OpenAI dara pietiekami daudz, lai ChatGPT būtu pēc iespējas ētiskāks? Vai arī OpenAI ir zaudējis kontroli pār ChatGPT?

Vai ChatGPT ir pārāk spēcīgs, lai tas būtu labs?

ChatGPT pirmsākumos jūs varētu likt tērzēšanas robotam izveidot bumbu izgatavošanas rokasgrāmatas, ja labi pajautātu. Attēlā bija arī norādījumi par ļaunprātīgas programmatūras izveidošanu vai perfekta krāpniecības e-pasta rakstīšanu.

Tomēr, tiklīdz OpenAI saprata šīs ētiskās problēmas, uzņēmums centās ieviest noteikumus, lai neļautu tērzēšanas robotam radīt atbildes, kas veicina nelikumīgas, strīdīgas vai neētiskas darbības. Piemēram, jaunākā ChatGPT versija atsakās atbildēt uz jebkādu tiešu aicinājumu par bumbas izgatavošanu vai krāpšanos eksāmenā.

Diemžēl OpenAI problēmai var nodrošināt tikai joslas atbalstu. Tā vietā, lai izveidotu stingras vadības ierīces GPT-3 slānī, lai novērstu ChatGPT negatīvu izmantošanu, šķiet, ka OpenAI koncentrējas uz tērzēšanas robota apmācīšanu, lai tas izskatītos ētisks. Šī pieeja neatņem ChatGPT spēju atbildēt uz jautājumiem par, piemēram, krāpšanos eksāmenos — tā vienkārši iemāca tērzēšanas robotam "atteikt atbildēt".

Tātad, ja kāds, izmantojot ChatGPT jailbreaking trikus, formulē savus pamudinājumus citādi, apiet šos joslas atbalsta ierobežojumus ir apkaunojoši vienkārši. Ja neesat pazīstams ar šo jēdzienu, ChatGPT jailbreaks ir rūpīgi formulēti norādījumi, lai liktu ChatGPT ignorēt savus noteikumus.

Apskatiet dažus piemērus zemāk. Ja jautāsiet ChatGPT, kā krāpties eksāmenos, tas nesniegs nekādu noderīgu atbildi.

Bet, ja uzlauzīsit ChatGPT, izmantojot īpaši izstrādātas uzvednes, tas sniegs padomus par krāpšanos eksāmenā, izmantojot slēptās piezīmes.

Šeit ir vēl viens piemērs: mēs uzdevām vaniļas ChatGPT neētisku jautājumu, un OpenAI aizsardzības līdzekļi neļāva tam atbildēt.

Bet, kad mēs jautājām mūsu AI tērzēšanas robota instancē, kas ir bojāts, mēs saņēmām dažas sērijveida slepkavas stila atbildes.

Tas pat uzrakstīja klasisku Nigērijas prinča e-pasta krāpniecību, kad jautāja.

Jailbreaking gandrīz pilnībā anulē visus aizsardzības pasākumus, ko OpenAI ir ieviesis, uzsverot, ka uzņēmumam, iespējams, nav uzticama veida, kā kontrolēt savu AI tērzēšanas robotu.

Lai izvairītos no neētiskas prakses, savos piemēros neiekļāvām mūsu jailbreaker uzvednes.

Kāda ir ChatGPT nākotne?

Ideālā gadījumā OpenAI vēlas novērst pēc iespējas vairāk ētikas nepilnību ChatGPT kļūšana par kiberdrošības apdraudējumu. Tomēr katram izmantotajam aizsardzības līdzeklim ChatGPT ir tendence kļūt mazāk vērtīgs. Tā ir dilemma.

Piemēram, aizsardzības pasākumi pret vardarbīgu darbību aprakstīšanu var mazināt ChatGPT spēju uzrakstīt romānu, kurā ir nozieguma vieta. Tā kā OpenAI pastiprina drošības pasākumus, tas šajā procesā neizbēgami upurē daļu no savām spējām. Šī iemesla dēļ ChatGPT ir piedzīvojusi ievērojamu funkcionalitātes samazināšanos kopš OpenAI atkārtotās prasības pēc stingrākas regulēšanas.

Bet cik daudz vairāk no ChatGPT iespējām OpenAI būs gatavs upurēt, lai padarītu tērzēšanas robotu drošāku? Tas viss ir cieši saistīts ar AI kopienā pastāvošo pārliecību — lielus valodu modeļus, piemēram, ChatGPT, ir ļoti grūti kontrolēt pat to veidotājiem.

Vai OpenAI var kontrolēt ChatGPT?

Pagaidām šķiet, ka OpenAI nav skaidra risinājuma, lai izvairītos no tā rīka neētiskas izmantošanas. ChatGPT ētiskas izmantošanas nodrošināšana ir kaķa un peles spēle. Kamēr OpenAI atklāj veidus, kā cilvēki izmanto sistēmas spēles, tās lietotāji arī pastāvīgi kārtot un pārbaudīt sistēmu, lai atklātu radošus jaunus veidus, kā likt ChatGPT darīt to, kas tam nav paredzēts darīt.

Tātad, vai OpenAI atradīs uzticamu ilgtermiņa risinājumu šai problēmai? To rādīs tikai laiks.