Kaip naudoti pokalbio prieigos rakto buferį „LangChain“?

Kaip Naudoti Pokalbio Prieigos Rakto Buferi Langchain



„LangChain“ leidžia kūrėjams kurti modelius naudojant mašininį mokymąsi arba gilųjį mokymąsi, kuris gali treniruoti modelius naudojant duomenų rinkinius. Šie modeliai gali gauti skirtingus duomenų šablonus arba suprasti duomenų rinkinio formą ir kalbą, kad gautų informaciją. Dideli kalbų modeliai arba LLM gali būti sukonfigūruoti arba sukurti naudojant LangChain sistemas, kurios gali suprasti ir generuoti tekstą natūraliomis kalbomis.

Šiame vadove bus parodytas pokalbio prieigos rakto buferio naudojimo „LangChain“ procesas.

Kaip naudoti pokalbio prieigos rakto buferį „LangChain“?

The ConversationTokenBufferMemory biblioteką galima importuoti iš LangChain sistemos, kad buferinėje atmintyje būtų saugomi naujausi pranešimai. Žetonus galima sukonfigūruoti taip, kad būtų apribotas buferyje saugomų pranešimų skaičius, o ankstesni pranešimai bus automatiškai išplauti.





Norėdami sužinoti, kaip naudoti pokalbio prieigos rakto buferį „LangChain“, naudokite šį vadovą:



1 veiksmas: įdiekite modulius

Pirmiausia įdiekite „LangChain“ sistemą, kurioje yra visi reikalingi moduliai, naudodami pip komandą:



pip įdiegti langchain





Dabar įdiekite OpenAI modulį, kad sukurtumėte LLM ir grandines naudodami OpenAI() metodą:

pip install openai



Įdiegę modulius tiesiog naudokite OpenAI API raktą sutvarkyti aplinką naudojant OS ir getpass bibliotekas:

importuoti tu

importuoti gauti pasą

tu . maždaug [ „OPENAI_API_KEY“ ] = gauti pasą . gauti pasą ( 'OpenAI API raktas:' )

2 veiksmas: pokalbio prieigos rakto buferinės atminties naudojimas

Sukurkite LLM naudodami OpenAI() metodą importavę ConversationTokenBufferMemory biblioteka iš „LangChain“ sistemos:

langchain. atmintis importuoti ConversationTokenBufferMemory

langchain. llms importuoti OpenAI

llm = OpenAI ( )

Sukonfigūruokite atmintį, kad nustatytumėte prieigos raktą, ji išplauna senus pranešimus ir išsaugo juos buferinėje atmintyje. Po to išsaugokite pokalbio pranešimus ir gaukite naujausius, kad galėtumėte juos naudoti kaip kontekstą:

atmintis = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

atmintis. save_context ( { 'įvestis' : 'Sveiki' } , { 'išvestis' : 'Kaip tau sekasi' } )

atmintis. save_context ( { 'įvestis' : 'Aš esu geras, o tu' } , { 'išvestis' : 'nedaug' } )

Vykdykite atmintį, kad gautumėte duomenis, saugomus buferinėje atmintyje, naudodami load_memory_variables() metodą:

atmintis. apkrovos_atminties_kintamieji ( { } )

3 veiksmas: pokalbio prieigos rakto buferio atminties naudojimas grandinėje

Sukurkite grandines sukonfigūruodami Pokalbių grandinė () metodas su keliais argumentais, norint naudoti pokalbio prieigos rakto buferio atmintį:

langchain. grandines importuoti Pokalbių grandinė

pokalbis_su_santrauka = Pokalbių grandinė (
llm = llm ,
atmintis = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
žodinis = Tiesa ,
)
pokalbis_su_santrauka. numatyti ( įvestis = 'Labas kas gero?' )

Dabar pradėkite pokalbį užduodami klausimus natūralia kalba parašytais raginimais:

pokalbis_su_santrauka. numatyti ( įvestis = „Tiesiog dirbu su NLP projektu“ )

Gaukite išvestį iš duomenų, saugomų buferinėje atmintyje, naudodami žetonų skaičių:

pokalbis_su_santrauka. numatyti ( įvestis = „Tiesiog dirbu kuriant LLM“ )

Buferis nuolat atnaujinamas su kiekviena nauja įvestimi, nes ankstesni pranešimai reguliariai išplaunami:

pokalbis_su_santrauka. numatyti (

įvestis = 'LLM naudojant LangChain! Ar girdėjote apie tai'

)

Tai viskas apie pokalbio prieigos rakto buferio naudojimą „LangChain“.

Išvada

Norėdami naudoti pokalbio prieigos rakto buferį LangChain, tiesiog įdiekite modulius, kad nustatytumėte aplinką naudodami API raktą iš OpenAI paskyros. Po to importuokite ConversationTokenBufferMemory biblioteką naudodami LangChain modulį, kad išsaugotumėte pokalbį buferyje. Buferinė atmintis gali būti naudojama grandinėje, kad senesni pranešimai būtų išplauti su kiekvienu nauju pokalbio pranešimu. Šiame įraše išsamiai aprašomas pokalbio prieigos rakto buferio atminties naudojimas „LangChain“.