Šiame vadove bus parodytas pokalbio prieigos rakto buferio naudojimo „LangChain“ procesas.
Kaip naudoti pokalbio prieigos rakto buferį „LangChain“?
The ConversationTokenBufferMemory biblioteką galima importuoti iš LangChain sistemos, kad buferinėje atmintyje būtų saugomi naujausi pranešimai. Žetonus galima sukonfigūruoti taip, kad būtų apribotas buferyje saugomų pranešimų skaičius, o ankstesni pranešimai bus automatiškai išplauti.
Norėdami sužinoti, kaip naudoti pokalbio prieigos rakto buferį „LangChain“, naudokite šį vadovą:
1 veiksmas: įdiekite modulius
Pirmiausia įdiekite „LangChain“ sistemą, kurioje yra visi reikalingi moduliai, naudodami pip komandą:
pip įdiegti langchain
Dabar įdiekite OpenAI modulį, kad sukurtumėte LLM ir grandines naudodami OpenAI() metodą:
pip install openai
Įdiegę modulius tiesiog naudokite OpenAI API raktą sutvarkyti aplinką naudojant OS ir getpass bibliotekas:
importuoti tuimportuoti gauti pasą
tu . maždaug [ „OPENAI_API_KEY“ ] = gauti pasą . gauti pasą ( 'OpenAI API raktas:' )
2 veiksmas: pokalbio prieigos rakto buferinės atminties naudojimas
Sukurkite LLM naudodami OpenAI() metodą importavę ConversationTokenBufferMemory biblioteka iš „LangChain“ sistemos:
iš langchain. atmintis importuoti ConversationTokenBufferMemoryiš langchain. llms importuoti OpenAI
llm = OpenAI ( )
Sukonfigūruokite atmintį, kad nustatytumėte prieigos raktą, ji išplauna senus pranešimus ir išsaugo juos buferinėje atmintyje. Po to išsaugokite pokalbio pranešimus ir gaukite naujausius, kad galėtumėte juos naudoti kaip kontekstą:
atmintis = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )atmintis. save_context ( { 'įvestis' : 'Sveiki' } , { 'išvestis' : 'Kaip tau sekasi' } )
atmintis. save_context ( { 'įvestis' : 'Aš esu geras, o tu' } , { 'išvestis' : 'nedaug' } )
Vykdykite atmintį, kad gautumėte duomenis, saugomus buferinėje atmintyje, naudodami load_memory_variables() metodą:
atmintis. apkrovos_atminties_kintamieji ( { } )
3 veiksmas: pokalbio prieigos rakto buferio atminties naudojimas grandinėje
Sukurkite grandines sukonfigūruodami Pokalbių grandinė () metodas su keliais argumentais, norint naudoti pokalbio prieigos rakto buferio atmintį:
iš langchain. grandines importuoti Pokalbių grandinėpokalbis_su_santrauka = Pokalbių grandinė (
llm = llm ,
atmintis = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
žodinis = Tiesa ,
)
pokalbis_su_santrauka. numatyti ( įvestis = 'Labas kas gero?' )
Dabar pradėkite pokalbį užduodami klausimus natūralia kalba parašytais raginimais:
pokalbis_su_santrauka. numatyti ( įvestis = „Tiesiog dirbu su NLP projektu“ )
Gaukite išvestį iš duomenų, saugomų buferinėje atmintyje, naudodami žetonų skaičių:
pokalbis_su_santrauka. numatyti ( įvestis = „Tiesiog dirbu kuriant LLM“ )
Buferis nuolat atnaujinamas su kiekviena nauja įvestimi, nes ankstesni pranešimai reguliariai išplaunami:
pokalbis_su_santrauka. numatyti (įvestis = 'LLM naudojant LangChain! Ar girdėjote apie tai'
)
Tai viskas apie pokalbio prieigos rakto buferio naudojimą „LangChain“.
Išvada
Norėdami naudoti pokalbio prieigos rakto buferį LangChain, tiesiog įdiekite modulius, kad nustatytumėte aplinką naudodami API raktą iš OpenAI paskyros. Po to importuokite ConversationTokenBufferMemory biblioteką naudodami LangChain modulį, kad išsaugotumėte pokalbį buferyje. Buferinė atmintis gali būti naudojama grandinėje, kad senesni pranešimai būtų išplauti su kiekvienu nauju pokalbio pranešimu. Šiame įraše išsamiai aprašomas pokalbio prieigos rakto buferio atminties naudojimas „LangChain“.