Kaip naudoti atmintį „LLMChain“ per „LangChain“?

Kaip Naudoti Atminti Llmchain Per Langchain



„LangChain“ yra sistema, kurią galima naudoti importuojant bibliotekas ir priklausomybes kuriant didelių kalbų modelius arba LLM. Kalbos modeliai naudoja atmintį, kad saugotų duomenis arba istoriją duomenų bazėje kaip stebėjimą, kad gautų pokalbio kontekstą. Atmintis sukonfigūruota saugoti naujausius pranešimus, kad modelis galėtų suprasti dviprasmiškus vartotojo pateiktus raginimus.

Šiame tinklaraštyje paaiškinamas atminties naudojimo LLMChain per LangChain procesas.





Kaip naudoti atmintį „LLMChain“ per „LangChain“?

Norėdami pridėti atminties ir naudoti ją LLMChain per LangChain, ConversationBufferMemory biblioteką galima naudoti importuojant ją iš LangChain.



Norėdami sužinoti, kaip naudoti LLMChain atmintį per LangChain, peržiūrėkite šį vadovą:



1 veiksmas: įdiekite modulius

Pirmiausia pradėkite atminties naudojimo procesą įdiegdami LangChain naudodami pip komandą:





pip įdiegti langchain

Įdiekite OpenAI modulius, kad gautumėte jo priklausomybes arba bibliotekas, kad sukurtumėte LLM arba pokalbių modelius:



pip install openai

Nustatykite aplinką OpenAI naudojant API raktą, importuojant OS ir getpass bibliotekas:

importuoti mus
importuoti getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API raktas:')

2 veiksmas: bibliotekų importavimas

Nustatę aplinką, tiesiog importuokite bibliotekas, pvz., ConversationBufferMemory, iš LangChain:

iš langchain.chains importuoti LLMChain
iš langchain.llms importuoti OpenAI

iš langchain.memory importuoti ConversationBufferMemory

iš langchain.prompts importuoti PromptTemplate

Sukonfigūruokite raginimo šabloną naudodami kintamuosius, pvz., „input“, kad gautumėte užklausą iš vartotojo, ir „hist“, kad duomenys būtų saugomi buferinėje atmintyje:

template = '''Esate modelis, bendraujantis su žmogumi

{hist}
Žmogus: {input}
Pokalbių robotas:'''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
atmintis = ConversationBufferMemory(memory_key='hist')

3 veiksmas: LLM konfigūravimas

Sukūrę užklausos šabloną, sukonfigūruokite LLMChain() metodą naudodami kelis parametrus:

llm = OpenAI()
llm_chain = LLMchain(
llm = llm,
prompt=prompt,
verbose=Tiesa,
atmintis = atmintis,
)

4 veiksmas: LLMChain testavimas

Po to išbandykite LLMChain naudodami įvesties kintamąjį, kad gautumėte vartotojo raginimą tekstine forma:

llm_chain.predict(input='Sveikas, mano drauge')

Naudokite kitą įvestį, kad gautumėte duomenis, saugomus atmintyje, kad ištrauktumėte išvestį naudojant kontekstą:

llm_chain.predict(input='Gerai! Man gerai – kaip sekasi')

5 veiksmas: atminties pridėjimas prie pokalbių modelio

Atmintį galima pridėti prie pokalbių modeliu pagrįstos LLMChain importuojant bibliotekas:

iš langchain.chat_models importuoti ChatOpenAI
iš langchain.schema importuoti SystemMessage
iš langchain.prompts importuoti ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Konfigūruokite raginimo šabloną naudodami ConversationBufferMemory() naudodami skirtingus kintamuosius, kad nustatytumėte vartotojo įvestį:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Jūs esate modelis, kuris kalbasi su žmogumi'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

atmintis = ConversationBufferMemory(memory_key='hist', return_messages=True)

6 veiksmas: LLMChain konfigūravimas

Nustatykite LLMChain() metodą, kad sukonfigūruotumėte modelį naudodami skirtingus argumentus ir parametrus:

llm = ChatOpenAI()

chat_llm_chain = LLMchain(
llm = llm,
prompt=prompt,
verbose=Tiesa,
atmintis = atmintis,
)

7 veiksmas: LLMChain testavimas

Pabaigoje tiesiog išbandykite LLMChain naudodami įvestį, kad modelis galėtų sugeneruoti tekstą pagal raginimą:

chat_llm_chain.predict(input='Sveikas, mano draugas')

Modelis išsaugojo ankstesnį pokalbį atmintyje ir rodo jį prieš faktinį užklausos išvestį:

llm_chain.predict(input='Gerai! Man gerai – kaip sekasi')

Tai viskas apie atminties naudojimą LLMChain naudojant LangChain.

Išvada

Norėdami naudoti LLMChain atmintį per LangChain sistemą, tiesiog įdiekite modulius, kad nustatytumėte aplinką, kad gautumėte priklausomybes iš modulių. Po to tiesiog importuokite bibliotekas iš „LangChain“, kad naudotumėte buferinę atmintį ankstesniam pokalbiui saugoti. Vartotojas taip pat gali pridėti atminties prie pokalbių modelio, sukurdamas LLMCchain ir tada išbandydamas grandinę pateikdamas įvestį. Šiame vadove išsamiai aprašomas atminties naudojimo LLMChain per LangChain procesas.