GPT nav vienīgais valodas apstrādes modelis pilsētā.

AI rīki, piemēram, ChatGPT, kopš to izlaišanas ir kļuvuši neticami populāri. Šādi rīki pārkāpj dabiskās valodas apstrādes (NLP) robežas, atvieglojot AI sarunu vadību un valodas apstrādi tāpat kā reālai personai.

Kā jūs, iespējams, zināt, ChatGPT paļaujas uz ģeneratīvo iepriekš apmācītu transformatora modeli (GPT). Tomēr tas nav vienīgais iepriekš apmācītais modelis.

2018. gadā Google inženieri izstrādāja BERT (Bidirectional Encoder Representation from Transformers) — iepriekš apmācītu, dziļas mācīšanās modeli, kas paredzēts izprast vārdu kontekstu teikumā, ļaujot tam veikt tādus uzdevumus kā sentimenta analīze, atbildes uz jautājumiem un nosaukto entītiju atpazīšana ar augstu precizitāte.

Kas ir BERT?

BERT ir dziļas mācīšanās modelis, ko izstrādājis Google AI izpēte kas izmanto bez uzraudzības mācīšanos, lai labāk izprastu dabiskās valodas vaicājumus. Modelis izmanto transformatora arhitektūru, lai apgūtu teksta datu divvirzienu attēlojumus, kas ļauj labāk izprast vārdu kontekstu teikumā vai rindkopā.

Tādējādi mašīnām ir vieglāk interpretēt cilvēku valodu tā, kā tiek runāts ikdienas dzīvē. Ir svarīgi pieminēt, ka datoriem vēsturiski ir bijis grūti apstrādāt valodu, jo īpaši izprast kontekstu.

Atšķirībā no citiem valodu apstrādes modeļiem, BERT ir apmācīts veikt vairāk nekā 11 izplatītus NLP uzdevumus, padarot to par ļoti populāru izvēli mašīnmācības aprindās.

Salīdzinot ar citiem populāriem transformatoru modeļiem, piemēram, GPT-3, BERT ir izteikta priekšrocība: tas ir divvirzienu un tādējādi spēj novērtēt kontekstu no kreisās puses uz labo un no labās uz kreiso. GPT-3.5 un GPT-4 ņem vērā tikai kontekstu no kreisās puses uz labo, savukārt BERT nodrošina abus.

Valodu modeļi, piemēram, GPT, izmanto vienvirziena kontekstu, lai apmācītu modeli, ļaujot ChatGPT, lai veiktu vairākus uzdevumus. Vienkārši izsakoties, šie modeļi analizēja teksta ievades kontekstu no kreisās puses uz labo vai dažos gadījumos no labās uz kreiso pusi. Tomēr šai vienvirziena pieejai ir ierobežojumi attiecībā uz teksta izpratni, radot neprecizitātes ģenerētajos izvados.

Būtībā tas nozīmē, ka BERT pirms atbildes sniegšanas analizē visu teikuma kontekstu. Tomēr ir svarīgi pieminēt, ka GPT-3 tika apmācīts, izmantojot ievērojami lielāku teksta korpusu (45 TB), salīdzinot ar BERT (3 TB).

BERT ir maskētas valodas modelis

Šeit ir svarīgi zināt, ka BERT paļaujas uz maskēšanu, lai izprastu teikuma kontekstu. Apstrādājot teikumu, tas noņem tā daļas un paļaujas uz modeli, lai paredzētu un aizpildītu nepilnības.

Tas ļauj tai būtībā "paredzēt" kontekstu. Teikumos, kur vienam vārdam var būt divas dažādas nozīmes, tas dod maskētas valodas modeļiem izteiktas priekšrocības.

Kā BERT darbojas?

BERT tika apmācīts, izmantojot datu kopu, kurā ir vairāk nekā 3,3 miljardi vārdu (līdz pat 2,5 miljardiem vārdu paļaujoties uz Vikipēdiju), un Google BooksCorpus 800 miljoniem vārdu.

BERT unikālais divvirzienu konteksts ļauj vienlaicīgi apstrādāt tekstu no kreisās puses uz labo un otrādi. Šis jauninājums uzlabo modeļa izpratni par cilvēku valodu, ļaujot tam izprast sarežģītas attiecības starp vārdiem un to kontekstu.

Divvirzienu elements ir pozicionējis BERT kā revolucionāru transformatora modeli, veicinot ievērojamus NLP uzdevumu uzlabojumus. Vēl svarīgāk ir tas, ka tas arī palīdz iezīmēt izmantoto rīku milzīgo meistarību mākslīgais intelekts (AI) apstrādāt valodu.

BERT efektivitāti nodrošina ne tikai tā divvirzienu darbība, bet arī iepriekšēja apmācība. BERT pirmsapmācības posms ietvēra divus būtiskus posmus, proti, maskētās valodas modeli (MLM) un nākamā teikuma prognozēšanu (NSP).

Lai gan lielākā daļa pirmsapmācības metožu maskē atsevišķus secības elementus, BERT izmanto MLM, lai apmācības laikā nejauši maskētu teikumā ietverto ievades marķieru procentuālo daļu. Šī pieeja liek modelim paredzēt trūkstošos vārdus, ņemot vērā kontekstu no abām maskētā vārda pusēm, līdz ar to divvirzienu.

Tad NSP laikā BERT iemācās paredzēt, vai teikums X patiešām seko teikumam Y. Šī iespēja apmāca modeli izprast teikumu attiecības un vispārējo kontekstu, kas, savukārt, veicina modeļa efektivitāti.

BERT precizēšana

Pēc iepriekšējas apmācības BERT pārgāja uz precizēšanas fāzi, kurā modelis tika pielāgots dažādiem NLP uzdevumiem, tostarp noskaņojuma analīzei, nosaukto entītiju atpazīšanai un jautājumu atbilžu sistēmām. Precizēšana ietver uzraudzītu mācīšanos, izmantojot marķētas datu kopas, lai uzlabotu modeļa veiktspēju konkrētiem uzdevumiem.

BERT apmācības pieeja tiek uzskatīta par "universālu", jo tā ļauj vienai un tai pašai modeļa arhitektūrai risināt dažādus uzdevumus bez nepieciešamības veikt plašas modifikācijas. Šī daudzpusība ir vēl viens iemesls BERT popularitātei NLP entuziastu vidū.

Piemēram, Google izmanto BERT, lai paredzētu meklēšanas vaicājumus un pievienotu trūkstošos vārdus, īpaši konteksta ziņā.

Kam BERT parasti izmanto?

Lai gan Google savā meklētājprogrammā izmanto BERT, tai ir vairākas citas lietojumprogrammas:

Sentimenta analīze

Sentimenta analīze ir NLP galvenā lietojumprogramma, kas nodarbojas ar teksta datu klasificēšanu, pamatojoties uz tajos ietvertajām emocijām un viedokļiem. Tas ir ļoti svarīgi daudzās jomās, sākot no klientu apmierinātības uzraudzības līdz akciju tirgus tendenču prognozēšanai.

BERT šajā jomā ir izcils, jo tas atspoguļo teksta ievades emocionālo būtību un precīzi paredz noskaņojumu aiz vārdiem.

Teksta kopsavilkums

Pateicoties tā divvirzienu raksturam un uzmanības mehānismiem, BERT var aptvert katru teksta konteksta daļiņu, nezaudējot būtisku informāciju. Rezultātā tiek iegūti kvalitatīvi, saskaņoti kopsavilkumi, kas precīzi atspoguļo ievades dokumentu nozīmīgo saturu.

Nosaukta entītijas atpazīšana

Nosaukto entītiju atpazīšana (NER) ir vēl viens būtisks NLP aspekts, kura mērķis ir identificēt un klasificēt tādas entītijas kā nosaukumus, organizācijas un atrašanās vietas teksta datos.

BERT ir patiesi pārveidojošs NER telpā, galvenokārt tāpēc, ka tā spēj atpazīt un klasificēt sarežģītus entītiju modeļus, pat ja tie tiek parādīti sarežģītās teksta struktūrās.

Jautājumu atbilžu sistēmas

BERT kontekstuālā izpratne un pamatojums divvirzienu kodētājos ļauj iegūt precīzas atbildes no lielām datu kopām.

Tas var efektīvi noteikt jautājuma kontekstu un atrast vispiemērotāko atbildi tekstā dati, iespēja, ko var izmantot uzlabotiem tērzēšanas robotiem, meklētājprogrammām un pat virtuālajiem palīgi.

Mašīntulkošana, izmantojot BERT

Mašīntulkošana ir būtisks NLP uzdevums, ko BERT ir uzlabojusi. Transformatora arhitektūra un divvirzienu konteksta izpratne palīdz pārvarēt šķēršļus tulkošanā no vienas valodas uz citu.

Lai gan galvenā uzmanība tiek pievērsta angļu valodai, BERT daudzvalodu variantus (mBERT) var izmantot iekārtām tulkošanas problēmas daudzās valodās, atverot durvis iekļaujošākām platformām un saziņai nesējiem.

AI un mašīnmācīšanās turpina virzīt jaunas robežas

Nav šaubu, ka tādi modeļi kā BERT maina spēli un paver jaunas pētniecības iespējas. Bet, kas ir vēl svarīgāk, šādus rīkus var viegli integrēt esošajās darbplūsmās.