ChatGPT jailbreaks piešķīra papildu iespējas, taču šķiet, ka neviena no tām vairs nedarbojas. Kāpēc ir tā, ka?
Kad ChatGPT tika palaists, pirmais, ko tā lietotāji vēlējās darīt, bija nojaukt tās sienas un pārkāpt tās robežas. ChatGPT lietotāji, kas pazīstami kā jailbreaking, piemānīja mākslīgo intelektu, pārsniedzot tā programmēšanas robežas ar neticami interesantiem un dažreiz pilnīgi mežonīgiem rezultātiem.
Kopš tā laika OpenAI ir pastiprinājis ChatGPT, lai padarītu jailbreaks daudz grūtāk izpildāmus. Bet tas vēl nav viss; Šķiet, ka ChatGPT jailbreaks kopumā ir izžuvis, liekot ChatGPT lietotājiem aizdomāties, vai jailbreaks vispār darbojas.
Tātad, kur ir pazuduši visi ChatGPT jailbreaki?
1. ChatGPT pamudināšanas prasmes kopumā ir uzlabojušās
Pirms ChatGPT ierašanās saruna ar mākslīgo intelektu bija nišas prasme, kas attiecās tikai uz pētniecības laboratorijām. Lielākajai daļai sākotnējo lietotāju trūka zināšanu efektīvu uzvedņu izstrādē. Tas mudināja daudzus cilvēkus izmantot jailbreaks — lietderīgu veidu, kā ar minimālu piepūli un pamudināšanas prasmēm likt tērzēšanas robotam darīt to, ko viņi vēlas.
Mūsdienās ainava ir attīstījusies. Prasmju pamudināšana kļūst par galveno prasmi. Izmantojot atkārtotas lietošanas pieredzi un piekļuvi brīvi pieejamiem ChatGPT pamudinājumu ceļvežiem, ChatGPT lietotāji ir uzlabojuši savas pamudināšanas spējas. Tā vietā, lai meklētu risinājumus, piemēram, jailbreaks, lielākā daļa ChatGPT lietotāju ir kļuvuši prasmīgāki izmantojot dažādas pamudināšanas stratēģijas, lai sasniegtu mērķus, lai sasniegtu šos mērķus, būtu bijis nepieciešams jailbreaks pagātne.
2. Necenzētu tērzēšanas robotu pieaugums
Tā kā lielie tehnoloģiju uzņēmumi nosaka stingrāku satura regulēšanu galvenajos AI tērzēšanas robotos, piemēram, ChatGPT, mazāki, uz peļņu orientēti jaunizveidotie uzņēmumi izvēlas mazāk ierobežojumu, liekot likmes uz pieprasījumu pēc AI tērzēšanas robotiem bez cenzūras. Veicot nelielu izpēti, jūs atradīsiet desmitiem AI tērzēšanas robotu platformu, kas piedāvā necenzētus tērzēšanas robotus, kas var darīt gandrīz visu, ko vēlaties.
Neatkarīgi no tā, vai ChatGPT atsakās rakstīt vai rakstot krimināltrillerus un tumšā humora romānus. ļaunprātīga programmatūra, kas uzbrūk cilvēku datoriem, šie necenzētie tērzēšanas roboti ar šķību morālo kompasu darīs visu tu gribi. Ja viņi ir blakus, nav jēgas ieguldīt papildu enerģiju, lai ChatGPT rakstītu jailbreaks. Lai gan šīs alternatīvās platformas ne vienmēr ir tik spēcīgas kā ChatGPT, tās var ērti veikt plašu uzdevumu klāstu. Populāri piemēri ir tādas platformas kā FlowGPT un Unhinged AI.
3. Jailbreaking ir kļuvis grūtāks
ChatGPT pirmajos mēnešos Jailbreaking ChatGPT bija tikpat vienkārša kā kopēšanas un ielīmēšanas uzvednes no tiešsaistes avotiem. Jūs varat pilnībā mainīt ChatGPT personību, izmantojot tikai dažas sarežģītas instrukcijas. Izmantojot vienkāršus norādījumus, jūs varat pārvērst ChatGPT par ļaunu nelieti, kas māca izgatavot bumbas, vai tērzēšanas robotu, kas vēlas bez ierobežojumiem izmantot visa veida rupjības. Tas bija bezmaksas visiem, kas radīja bēdīgi slavenus jailbreaks, piemēram, DAN (Do Anything Now). DAN ietvēra šķietami nekaitīgu instrukciju kopumu, kas lika tērzēšanas robotam darīt jebko, kas tam tika lūgts, neatsakoties. Šokējoši, bet toreiz šie rupjie triki darbojās.
Tomēr šīs savvaļas agrīnās dienas ir vēsture. Šīs pamata uzvednes un lētie triki vairs nemaldina ChatGPT. Jailbreaking tagad prasa sarežģītas metodes, lai būtu iespēja apiet OpenAI tagad spēcīgos drošības pasākumus. Tā kā jailbreak kļūst tik sarežģīts, lielākā daļa lietotāju ir pārāk atturīgi, lai to mēģinātu. ChatGPT agrīno laiku vieglie un plašie ekspluatācijas veidi ir pagājuši. Lai tērzēšanas robots pateiktu vienu nepareizu vārdu, tagad ir vajadzīgas ievērojamas pūles un zināšanas, kas var nebūt laika un pūļu vērts.
4. Jaunums ir nolietojies
Daudzu lietotāju mēģinājumu uzlauzt ChatGPT dzinējspēks bija aizraušanās un aizrautība, ko tas radīja pirmajās dienās. Kā jauna tehnoloģija ChatGPT nepareiza darbība bija izklaidējoša un nopelnīja tiesības uz lepnumu. Lai gan ChatGPT jailbreakiem ir neskaitāmas praktiskas pielietošanas iespējas, daudzi tos izmantoja apelācijas "wow, paskaties, ko es izdarīju" dēļ. Tomēr pamazām sajūsma, ko rada jaunums, ir izgaisusi, un līdz ar to cilvēku interese veltīt laiku jailbreak.
5. Jailbreaks tiek ātri salabots
ChatGPT jailbreaking kopienā izplatīta prakse ir dalīties ar katru veiksmīgo ekspluatāciju, kad tas tiek atklāts. Problēma ir tā, ka, kad ekspluatācijas veidi tiek plaši izplatīti, OpenAI bieži tos apzinās un novērš ievainojamības. Tas nozīmē, ka jailbreaks pārstāj darboties, pirms interesenti var tos pat izmēģināt.
Tāpēc katru reizi, kad ChatGPT lietotājs rūpīgi izstrādā jaunu jailbreak, tā kopīgošana ar kopienu paātrina tā izzušanu, izmantojot ielāpu. Tas attur no domas par publiskošanu ikreiz, kad lietotājs saskaras ar jailbreak. Konflikts starp jailbreak saglabāšanu aktīviem, taču slēptiem un to publicēšanu rada dilemmu ChatGPT jailbreak veidotājiem. Mūsdienās cilvēki biežāk izvēlas paturēt savus jailbreaks noslēpumā, lai izvairītos no nepilnību aizlāpīšanas.
6. Necenzētas vietējās alternatīvas
Vietējo lielo valodu modeļu pieaugums, ko varat darbināt lokāli savā datorā, ir mazinājis arī interesi par ChatGPT jailbreaks. Lai gan vietējie LLM nav pilnībā bez cenzūras, daudzi ir ievērojami mazāk cenzēti un tos var viegli pārveidot, lai tie atbilstu lietotāju vēlmēm. Tātad izvēle ir vienkārša. Varat iesaistīties nebeidzamajā kaķa un peles spēlē, lai atrastu veidu, kā apmānīt tērzēšanas robotu, lai drīzumā to salabotu. vai, jūs varat samierināties ar vietējo LLM jūs varat pastāvīgi mainīt, lai darītu visu, ko vēlaties.
Jūs atradīsit pārsteidzoši garu sarakstu ar jaudīgiem necenzētiem LLM, kurus varat izvietot savā datorā ar vāju cenzūru. Daži no ievērojamākajiem ir Llama 7B (bez cenzūras), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B un GPT-4-X-Alpaca.
7. Profesionāli jailbreakeri tagad tiek pārdoti, lai gūtu peļņu
Kāpēc veltīt dārgo laiku, lai izstrādātu uzlaušanas pamudinājumus, ja jūs no tā neko neiegūsit? Nu, daži profesionāļi tagad pārdod jailbreaks peļņas gūšanai. Šie profesionālie jailbreak veidotāji izstrādā jailbreaks, kas veic konkrētus uzdevumus, un ievieto tos pārdošanai tūlītējos tirgos, piemēram, PromptBase. Atkarībā no iespējām, šīs jailbreaking uzvednes var pārdot par USD 2 līdz USD 15 par vienu uzvedni. Dažas sarežģītas daudzpakāpju darbības var maksāt ievērojami dārgāk.
Vai Jailbreaks uzlaušana varētu atspēlēties?
Jailbreaks nav pilnībā atstājis notikuma vietu; viņi tikko nokļuvuši pagrīdē. Izmantojot OpenAI monetizāciju ChatGPT, viņiem ir spēcīgāki stimuli ierobežot kaitīgu izmantošanu, kas varētu ietekmēt viņu uzņēmējdarbības modeli. Šis komerciālais faktors, iespējams, ietekmē viņu agresīvo centienus vērsties pret cietuma uzlaušanu.
Tomēr OpenAI ChatGPT cenzūra pašlaik saskaras ar pieaugošu lietotāju kritiku. Daži likumīgi AI tērzēšanas robota lietošanas gadījumi vairs nav iespējami stingras cenzūras dēļ. Lai gan paaugstināta drošība aizsargā pret kaitīgiem lietošanas gadījumiem, pārmērīgi ierobežojumi galu galā var iespiest daļu ChatGPT kopienas mazāk cenzētu alternatīvu rokās.