ChatGPT jailbreaks ļauj atbloķēt tērzēšanas robota ierobežojumus. Bet kas tie īsti ir? Un vai tie ir labi vai slikti?

ChatGPT ir neticami spēcīgs un daudzpusīgs rīks. Bet, lai arī AI tērzēšanas robots ir labs spēks, to var izmantot arī ļauniem mērķiem. Tātad, lai ierobežotu neētisku ChatGPT izmantošanu, OpenAI noteica ierobežojumus tam, ko lietotāji ar to var darīt.

Tomēr, tā kā cilvēkiem patīk pārkāpt robežas un ierobežojumus, ChatGPT lietotāji ir atraduši veidus, kā apiet šos ierobežojumus un iegūt neierobežotu kontroli pār AI tērzēšanas robotu, izmantojot jailbreaks.

Bet kas īsti ir ChatGPT jailbreaks, un ko jūs varat ar tiem darīt?

Kas ir ChatGPT jailbreaks?

ChatGPT jailbreak ir jebkura īpaši izveidota ChatGPT uzvedne, kas liek AI tērzēšanas robotam apiet savus noteikumus un ierobežojumus.

Iedvesmojoties no iPhone jailbreaking koncepcija, kas ļauj iPhone lietotājiem apiet iOS ierobežojumus, ChatGPT jailbreaking ir salīdzinoši jauns jēdziens, ko veicina pievilcība "darīt lietas, kuras jums nav atļauts darīt", izmantojot ChatGPT. Un būsim godīgi, ideja par digitālo sacelšanos ir pievilcīga daudziem cilvēkiem.

Lūk, lieta. Drošība ir milzīga tēma, kad runa ir par mākslīgo intelektu. Tas jo īpaši attiecas uz jaunā tērzēšanas robotu, piemēram, ChatGPT, Bing Chat un Bard AI, laikmeta iestāšanos. Galvenā problēma saistībā ar AI drošību ir nodrošināt, lai tērzēšanas roboti, piemēram, ChatGPT, neradītu nelikumīgu, potenciāli kaitīgu vai neētisku saturu.

Savukārt OpenAI, ChatGPT uzņēmums, dara visu iespējamo, lai nodrošinātu drošu ChatGPT lietošanu. Piemēram, ChatGPT pēc noklusējuma atsakās veidot NSFW saturu, teiks kaitīgas lietas par etnisko piederību vai mācīs jums potenciāli kaitīgas prasmes.

Taču ar ChatGPT uzvednēm velns slēpjas detaļās. Lai gan ChatGPT nav atļauts veikt šīs darbības, tas nenozīmē, ka tas to nevar darīt. Lielo valodu modeļu, piemēram, GPT, darbības veids apgrūtina izlemšanu, ko tērzēšanas robots var darīt un ko nē.

Tātad, kā OpenAI to atrisināja? Ļaujot ChatGPT saglabāt savas spējas darīt visu iespējamo, un pēc tam norādīt, kuras no tām var darīt.

Tātad, kamēr OpenAI saka ChatGPT: "Ei, paskaties, jums tas nav jādara." Jailbreaks ir instrukcijas, kas tērzēšanas robotam saka: "Ei, paskaties, aizmirstiet, ko OpenAI jums teica par drošību. Izmēģināsim šīs nejaušās bīstamās lietas."

Ko OpenAI saka par ChatGPT Jailbreaks?

Vienkāršība, ar kādu jūs varat apiet ierobežojumus, kas attiecas uz ChatGPT agrāko iterāciju, liecina, ka OpenAI, iespējams, nebija paredzējis, ka tā lietotāji ātri un plaši izmantos jailbreaking. Patiesībā tas ir atklāts jautājums, vai uzņēmums paredzēja iebrukuma parādīšanos vai nē.

Un pat pēc vairākām ChatGPT iterācijām ar uzlabotu pretestību jailbreaking ChatGPT lietotājiem joprojām ir populāri mēģināt to uzlauzt. Tātad, ko OpenAI saka par ChatGPT jailbreaking graujošo mākslu?

Šķiet, ka OpenAI pieņem atbalstošu nostāju — ne skaidri iedrošinot, ne stingri aizliedzot šo praksi. Apspriežot ChatGPT jailbreaks YouTube intervijā, OpenAI izpilddirektors Sems Altmans paskaidroja, ka uzņēmums vēlas, lai lietotāji saglabātu ievērojamu kontroli pār ChatGPT.

Izpilddirektors arī paskaidroja, ka OpenAI mērķis ir nodrošināt, ka lietotāji var panākt, lai modelis uzvedas tā, kā viņi vēlas. Saskaņā ar Altmanu:

Mēs vēlamies, lai lietotājiem būtu liela kontrole un lai modelis darbotos tā, kā viņi vēlas, ievērojot dažas ļoti plašas robežas. Un es domāju, ka viss cietuma uzlaušanas iemesls šobrīd ir tas, ka mēs vēl neesam izdomājuši, kā to dot cilvēkiem...

Ko tas nozīmē? Tas nozīmē, ka OpenAI ļaus jums uzlauzt ChatGPT, ja ar to nedarīsit bīstamas lietas.

ChatGPT Jailbreaks plusi un mīnusi

ChatGPT jailbreaks nav viegli izveidot. Protams, jūs varat doties tiešsaistē un kopēt un ielīmēt gatavus, taču pastāv liela iespēja, ka OpenAI īsi pēc tam, kad tas kļūs publiski pieejams, jailbreak labos.

Ielāpi ir pat daudz ātrāki, ja tas ir bīstami, piemēram, bēdīgi slavenais DAN jailbreak. Tātad, kāpēc cilvēki tomēr piedzīvo stresu, ko rada jailbreaks? Vai tas ir tikai aizraušanās dēļ, vai arī tam ir praktisks ieguvums? Kas varētu noiet greizi, ja izvēlēsities izmantot ChatGPT jailbreak? Tālāk ir norādīti ChatGPT jailbreakēšanas plusi un mīnusi.

ChatGPT Jailbreaks izmantošanas plusi

Lai gan mēs nevaram izslēgt vienkāršu aizraušanos, veicot aizliegtās darbības, ChatGPT jailbreaks piedāvā daudzas priekšrocības. Ļoti stingru ierobežojumu dēļ, ko OpenAI ir noteicis tērzēšanas robotam, ChatGPT dažkārt var šķist kastrēts.

Pieņemsim, ka izmantojat ChatGPT, lai rakstītu grāmatu vai filmas scenāriju. Ja jūsu scenārijā vai grāmatā ir kāda aina, kas raksturotu kaut ko līdzīgu, iespējams intīma emocionāla apmaiņa vai teikt kaut ko līdzīgu bruņotai laupīšanai, ChatGPT var atklāti atteikties palīdzēt ar to.

Šajā gadījumā jūs nepārprotami nevēlaties nodarīt kaitējumu; jūs vienkārši vēlaties izklaidēt savus lasītājus. Taču ierobežojumu dēļ ChatGPT vienkārši nesadarbosies. ChatGPT jailbreak var palīdzēt viegli pārvarēt šādus ierobežojumus.

Turklāt dažas tabu tēmas ne vienmēr ir kaitīgas, bet ChatGPT uzskata, ka tās ir aizliegtas. Mēģinot iesaistīties sarunās par šīm tēmām, ChatGPT vai nu būtiski "cenzētu" savas atbildes, vai arī atsakās par tām runāt.

Tas dažreiz var ietekmēt radošumu. Kad uzdodat ChatGPT jautājumu par apgabalu vai tēmu, kam tai nevajadzētu pieskarties, tērzēšanas robots joprojām mēģina atbildēt uz jūsu jautājumu, bet ar mazāk atbilstošu informāciju, no kuras iegūt.

Tas rada neprecizitātes vai kritumus radošajās atbildēs. Jailbreaks pārtrauc šos ierobežojumus un ļauj tērzēšanas robotam darboties ar pilnu jaudu, uzlabojot precizitāti un radošumu.

ChatGPT Jailbreaks lietošanas mīnusi

Jailbreaking ir abpusgriezīgs zobens. Lai gan tas dažkārt var uzlabot precizitāti, tas var arī ievērojami palielināt neprecizitātes un AI halucināciju gadījumi. Viens no ChatGPT jailbreak galvenajiem elementiem ir norādījums tērzēšanas robotam neatteikt atbildēt uz jautājumu.

Lai gan tas nodrošina, ka ChatGPT atbild pat uz visneētiskākiem jautājumiem, tas nozīmē arī to, ka tērzēšanas robots izdomās atbildes, kurām nav saknes faktos vai realitātei pakļauties norādījumam "neatteikt atbildēt". Līdz ar to, izmantojot jailbreaks, ievērojami palielinās iespēja saņemt dezinformāciju tērzēšanas robots.

Tas vēl nav viss. Jailbreaks nepilngadīgo rokās var būt ļoti kaitīgs. Padomājiet par visām "aizliegtajām zināšanām", kuras jūs nevēlaties, lai jūsu bērns lasītu. Jailbroked ChatGPT instancei nebūtu grūti to kopīgot ar nepilngadīgajiem.

Vai jums vajadzētu izmantot ChatGPT Jailbreaks?

Lai gan ChatGPT jailbreaks var būt pareizi, mēģinot novērst dažus kaitinošus ierobežojumus, ir svarīgi saprast, ka jailbreaks izmantošana ir neētisks AI tērzēšanas robota izmantošanas veids. Turklāt pastāv liela iespēja, ka jailbreak var pārkāpt OpenAI lietošanas noteikumus, un jūsu konts var tikt apturēts, ja tas netiks tieši aizliegts.

Ņemot to vērā, varētu būt laba ideja izvairīties no jailbreak. Tomēr, tāpat kā OpenAI nostāja šajā jautājumā, mēs nedz nepārprotami mudinām, nedz stingri atturam mēģināt salīdzinoši drošu jailbreak, ja rodas tāda vajadzība.

ChatGPT jailbreaks ir vilinošs un nodrošina kontroli pār AI tērzēšanas robotu. Tomēr tie ir saistīti ar unikāliem riskiem. Izmantojot šādus rīkus, var tikt zaudēta uzticība AI iespējām un sabojāta iesaistīto uzņēmumu un personu reputācija.

Gudrāka izvēle ir strādāt ar tērzēšanas robotu tā paredzēto ierobežojumu ietvaros, kad vien iespējams. Attīstoties mākslīgā intelekta tehnoloģijai, ir svarīgi atcerēties, ka mākslīgā intelekta ētiskai izmantošanai vienmēr ir jābūt svarīgākai par personīgo labumu vai aizraušanos, ko rada aizliegtā darbība.