Kaip pridėti atminties būseną grandinėje naudojant „LangChain“?

Kaip Prideti Atminties Busena Grandineje Naudojant Langchain



„LangChain“ leidžia kūrėjams kurti pokalbių modelius, kurie gali bendrauti su žmonėmis natūraliomis kalbomis. Kad pokalbis būtų efektyvus, modelis turi turėti atmintį, kur saugomas pokalbio kontekstas. LangChain modeliai gali saugoti pokalbių pranešimus kaip stebėjimus, todėl išvestis visą laiką gali būti pokalbio kontekste

Šis vadovas parodys grandinių pakrovimo iš „LangChain Hub“ procesą.

Kaip pridėti atminties būseną grandinėje naudojant „LangChain“?

Atminties būsena gali būti naudojama grandinėms inicijuoti, nes ji gali reikšti naujausią grandinėse saugomą vertę, kuri bus naudojama grąžinant išvestį. Norėdami sužinoti, kaip pridėti atminties būseną grandinėse naudojant LangChain sistemą, tiesiog peržiūrėkite šį paprastą vadovą:





1 veiksmas: įdiekite modulius

Pirma, įsitraukite į procesą įdiegdami LangChain sistemą su jos priklausomybėmis naudodami pip komandą:



pip įdiegti langchain



Taip pat įdiekite „OpenAI“ modulį, kad gautumėte jo bibliotekas, kurias galima naudoti atminties būsenai pridėti grandinėje:





pip install openai

Gaukite API raktą iš OpenAI paskyros ir sutvarkyti aplinką naudojant jį, kad grandinės galėtų jį pasiekti:



importuoti tu

importuoti gauti pasą

tu . maždaug [ „OPENAI_API_KEY“ ] = gauti pasą . gauti pasą ( 'OpenAI API raktas:' )

Šis veiksmas yra svarbus, kad kodas veiktų tinkamai.

2 veiksmas: importuokite bibliotekas

Nustatę aplinką, tiesiog importuokite bibliotekas, kad pridėtumėte atminties būseną, pvz., LLMChain, ConversationBufferMemory ir daug daugiau:

langchain. grandines importuoti Pokalbių grandinė

langchain. atmintis importuoti ConversationBufferMemory

langchain. pokalbių_modeliai importuoti ChatOpenAI

langchain. grandines . llm importuoti LLMCchain

langchain. raginimai importuoti PromptTemplate

3 žingsnis: grandinių kūrimas

Dabar tiesiog sukurkite LLM grandines naudodami OpenAI() metodą ir raginimo šabloną naudodami užklausą, kad iškviestumėte grandinę:

pokalbis = ChatOpenAI ( temperatūros = 0 )

prompt_template = „Parašyk {style} pokštą“

llm_chain = LLMCchain ( llm = pokalbis , paraginti = PromptTemplate. from_template ( prompt_template ) )

llm_chain ( įėjimai = { 'stilius' : 'kukurūzas' } )

Modelis rodė išvestį naudodamas LLM modelį, kaip parodyta toliau esančioje ekrano kopijoje:

4 veiksmas: atminties būsenos pridėjimas

Čia mes pridėsime atminties būseną grandinėje naudodami ConversationBufferMemory() metodą ir paleisime grandinę, kad gautume 3 spalvas iš vaivorykštės:

pokalbį = Pokalbių grandinė (

llm = pokalbis ,

atmintis = ConversationBufferMemory ( )

)

pokalbį. paleisti ( 'trumpai pateikite 3 vaivorykštės spalvas' )

Modelis rodo tik tris vaivorykštės spalvas, o kontekstas saugomas grandinės atmintyje:

Čia mes vykdome grandinę su dviprasmiška komanda kaip „ kiti 4? “, todėl pats modelis gauna kontekstą iš atminties ir rodo likusias vaivorykštės spalvas:

pokalbį. paleisti ( 'kiti 4?' )

Modelis padarė būtent tai, kaip suprato kontekstą ir grąžino likusias keturias spalvas iš vaivorykštės rinkinio:

Tai viskas apie pakrovimo grandines iš „LangChain Hub“.

Išvada

Norėdami pridėti atmintį grandinėse naudodami „LangChain“ sistemą, tiesiog įdiekite modulius, kad nustatytumėte LLM kūrimo aplinką. Po to importuokite bibliotekas, reikalingas grandinėms kurti LLM, ir pridėkite prie jos atminties būseną. Įtraukę atminties būseną į grandinę, tiesiog duokite grandinei komandą, kad gautumėte išvestį, ir tada duokite kitą komandą ankstesnės komandos kontekste, kad gautumėte teisingą atsakymą. Šiame įraše išsamiai aprašomas atminties būsenos pridėjimo grandinėse procesas naudojant „LangChain“ sistemą.