Ar miljoniem ChatGPT lietotāju jūs varētu brīnīties, ko OpenAI dara ar visām sarunām. Vai tas pastāvīgi analizē lietas, par kurām runājat ar ChatGPT?

Atbilde uz to ir, jā, ChatGPT mācās no lietotāja ievades, taču ne tā, kā domā lielākā daļa cilvēku. Šeit ir padziļināts ceļvedis, kurā paskaidrots, kāpēc ChatGPT izseko sarunas, kā tas tās izmanto un vai jūsu drošība ir apdraudēta.

Vai ChatGPT atceras sarunas?

ChatGPT nepieņem uzvednes pēc nominālvērtības. Tas izmanto kontekstuālo atmiņu, lai atcerētos un atsauktos uz iepriekšējām ievadēm, nodrošinot atbilstošas, konsekventas atbildes.

Kā piemēru ņemiet tālāk minēto sarunu. Kad mēs lūdzām ChatGPT recepšu idejas, tas ņēma vērā mūsu iepriekšējo ziņojumu par zemesriekstu alerģijām.

Šeit ir ChatGPT drošā recepte.

Kontekstuālā atmiņa arī ļauj AI veikt daudzpakāpju uzdevumus. Tālāk esošajā attēlā redzams, ka ChatGPT saglabā savu raksturu pat pēc jaunas uzvednes ievadīšanas.

ChatGPT sarunās var atcerēties desmitiem norādījumu. Tā izvade faktiski uzlabojas ar precizitāti un precizitāti, jo sniedzat vairāk konteksta. Vienkārši skaidri izskaidrojiet savus norādījumus.

instagram viewer

Jums vajadzētu arī pārvaldīt savas cerības, jo ChatGPT kontekstuālajai atmiņai joprojām ir ierobežojumi.

ChatGPT sarunām ir ierobežota atmiņas ietilpība

Kontekstuālā atmiņa ir ierobežota. ChatGPT ir ierobežoti aparatūras resursi, tāpēc tas atceras tikai konkrētus pašreizējo sarunu punktus. Platforma aizmirst iepriekšējās uzvednes, tiklīdz tiek sasniegta atmiņas ietilpība.

Šajā sarunā mēs uzdevām ChatGPT spēlēt izdomātu varoni Tomijs.

Tas sāka atbildēt uz uzvednēm kā Tomijs, nevis ChatGPT.

Lai gan mūsu pieprasījums darbojās, ChatGPT pārtrauca raksturu pēc 1000 vārdu uzvednes saņemšanas.

OpenAI nekad nav atklājis precīzus ChatGPT ierobežojumus, taču baumas liecina, ka tas vienlaikus var apstrādāt tikai 3000 vārdu. Mūsu eksperimentā ChatGPT nedarbojās jau pēc 2800+ vārdiem.

Varat sadalīt uzvednes divās 1500 vārdu kopās, taču ChatGPT, visticamāk, nesaglabās visus norādījumus. Vienkārši sāciet citu tērzēšanu. Pretējā gadījumā jums būs vairākas reizes jāatkārto konkrēta informācija sarunas laikā.

ChatGPT atceras tikai tēmai atbilstošos ievades datus

ChatGPT izmanto kontekstuālo atmiņu, lai uzlabotu izvades precizitāti. Tas ne tikai saglabā informāciju, lai to savāktu. Platforma gandrīz automātiski aizmirst nebūtiskas detaļas, pat ja esat tālu no marķiera limita sasniegšanas.

Zemāk redzamajā attēlā mēs cenšamies sajaukt AI ar dažādām nesakarīgām, neatbilstošām instrukcijām.

Mēs saglabājām kombinētos ievades datus, kas nepārsniedz 100 vārdus, taču ChatGPT joprojām aizmirsa mūsu pirmo norādījumu. Tas ātri salauza raksturu.

Tikmēr ChatGPT šīs sarunas laikā turpināja spēlēt lomu spēles, jo mēs uzdevām tikai ar tēmu saistītus jautājumus.

Ideālā gadījumā katram dialogam ir jāvadās pēc atsevišķas tēmas, lai saglabātu precīzus, atbilstošus rezultātus. Jūs joprojām varat ievadīt vairākus norādījumus vienlaikus. Vienkārši pārliecinieties, ka tie atbilst vispārējai tēmai, pretējā gadījumā ChatGPT var atmest norādījumus, kurus tā uzskata par neatbilstošiem.

Apmācības instrukcijas Pārspēj lietotāja ievadi

ChatGPT vienmēr piešķirs prioritāti iepriekš noteiktiem norādījumiem, nevis lietotāja ģenerētiem norādījumiem. Tas aptur nelikumīgas darbības, izmantojot ierobežojumus. Platforma noraida jebkuru aicinājumu, ko tā uzskata par bīstamu vai kaitējošu citiem.

Kā piemērus ņemiet lomu spēles pieprasījumus. Lai gan tie ignorē noteiktus valodas un frāzes ierobežojumus, jūs tos nevarat izmantot, lai veiktu nelikumīgas darbības.

Protams, ne visi ierobežojumi ir saprātīgi. Ja stingras vadlīnijas apgrūtina konkrētu uzdevumu izpildi, turpiniet pārrakstīt uzvednes. Vārdu izvēle un tonis lielā mērā ietekmē rezultātus. Jūs varat smelties iedvesmu no vairuma efektīvas, detalizētas uzvednes vietnē GitHub.

Kā OpenAI pēta lietotāju sarunas?

Kontekstuālā atmiņa attiecas tikai uz jūsu pašreizējo sarunu. ChatGPT bezvalsts arhitektūra apstrādā sarunas kā neatkarīgas instances; tā nevar atsaukties uz informāciju no iepriekšējām. Uzsākot jaunas tērzēšanas sarunas, vienmēr tiek atiestatīts modeļa stāvoklis.

Tas nenozīmē, ka ChatGPT uzreiz izmet lietotāju sarunas. OpenAI lietošanas noteikumi norāda, ka uzņēmums apkopo informāciju no tādiem patērētāju pakalpojumiem, kas nav API, piemēram, ChatGPT un Dall-E. Jūs pat varat lūgt savas tērzēšanas vēstures kopijas.

Kamēr ChatGPT brīvi piekļūst sarunām, OpenAI privātuma politika aizliedz darbības, kas var apdraudēt lietotājus. Treneri var izmantot jūsu datus tikai produktu izpētei un izstrādei.

Izstrādātāji meklē nepilnības

OpenAI sarunās meklē nepilnības. Tajā tiek analizēti gadījumi, kad ChatGPT demonstrē datu novirzes, rada kaitīgu informāciju vai palīdz veikt nelikumīgas darbības. Platformas ētikas vadlīnijas tiek pastāvīgi atjauninātas.

Piemēram, pirmās versijas ChatGPT atklāti atbildēja uz jautājumiem par ļaunprātīgas programmatūras kodēšanu vai sprāgstvielu konstruēšana. Šie incidenti lika lietotājiem justies kā OpenAI nekontrolē ChatGPT. Lai atgūtu sabiedrības uzticību, tā apmācīja tērzēšanas robotu noraidīt visus jautājumus, kas varētu būt pretrunā ar tās vadlīnijām.

Treneri vāc un analizē datus

ChatGPT izmanto uzraudzītas mācīšanās metodes. Lai gan platforma atceras visas ievades, tā nemācās no tām reāllaikā. OpenAI treneri vispirms tos savāc un analizē. Tādējādi tiek nodrošināts, ka ChatGPT nekad neuzņem saņemto kaitīgo un kaitīgo informāciju.

Uzraudzīta mācīšanās prasa vairāk laika un enerģijas nekā bez uzraudzības. Tomēr jau ir pierādīts, ka mākslīgā intelekta atstāšana tikai ievades analīzei ir kaitīga.

Kā piemēru ņemiet Microsoft Tay — vienu no reizes mašīnmācīšanās kļūdījās. Tā kā tas pastāvīgi analizēja tvītus bez izstrādātāja norādījumiem, ļaunprātīgi lietotāji galu galā apmācīja to izspļaut rasistiskus, stereotipiskus viedokļus.

Izstrādātāji pastāvīgi uzmanās no aizspriedumiem

Vairākas ārējie faktori izraisa AI novirzes. Neapzināti aizspriedumi var rasties no atšķirībām apmācības modeļos, datu kopu kļūdām un slikti konstruētiem ierobežojumiem. Jūs tos pamanīsit dažādās AI lietojumprogrammās.

Par laimi, ChatGPT nekad nav demonstrējis diskriminējošus vai rasu aizspriedumus. Iespējams, ka vissliktākā novirze, ko lietotāji ir pamanījuši, ir ChatGPT tieksme pret kreisajām ideoloģijām, liecina New York Post Ziņot. Platforma atklātāk raksta par liberālām, nevis konservatīvām tēmām.

Lai novērstu šos aizspriedumus, OpenAI aizliedza ChatGPT sniegt politisku ieskatu. Tas var atbildēt tikai uz vispārīgiem faktiem.

Moderatori pārskata ChatGPT darbību

Lietotāji var sniegt atsauksmes par ChatGPT izvadi. Pogas “Patīk” un “Nepatīk” atradīsit katras atbildes labajā pusē. Pirmais norāda uz pozitīvu reakciju. Pēc pogas Patīk vai Nepatīk nospiešanas parādīsies logs, kurā varēsiet nosūtīt atsauksmes saviem vārdiem.

Atsauksmju sistēma ir noderīga. Vienkārši dodiet OpenAI kādu laiku, lai izsijātu komentārus. Miljoniem lietotāju regulāri komentē ChatGPT — tā izstrādātāji, visticamāk, piešķir prioritāti nopietniem novirzes gadījumiem un kaitīgas produkcijas radīšanai.

Vai jūsu ChatGPT sarunas ir drošas?

Ņemot vērā OpenAI privātuma politikas, varat būt drošs, ka jūsu dati būs drošībā. ChatGPT izmanto sarunas tikai datu apmācībai. Tās izstrādātāji pēta apkopotos ieskatus, lai uzlabotu izvades precizitāti un uzticamību, nevis zagtu personas datus.

Ņemot to vērā, neviena AI sistēma nav perfekta. ChatGPT pēc būtības nav neobjektīvs, taču ļaunprātīgas personas joprojām var izmantot tā ievainojamības, piemēram, datu kopu kļūdas, neuzmanīgu apmācību un drošības nepilnības. Jūsu aizsardzībai iemācieties cīnīties ar šiem riskiem.