Kaip sukurti LLM ir LLMChain „LangChain“?

Kaip Sukurti Llm Ir Llmchain Langchain



„LangChain“ yra natūralios kalbos apdorojimo arba NLP domeno programa, skirta kurti modelius į žmones panašiomis kalbomis. Šiuos modelius žmonės gali naudoti norėdami gauti atsakymus iš modelio arba užmegzti pokalbį kaip ir bet kuris kitas žmogus. „LangChain“ naudojama grandinėms kurti, išsaugant kiekvieną pokalbio sakinį ir toliau sąveikaujant naudojant jį kaip kontekstą.

Šis įrašas parodys LLM ir LLMChain kūrimo procesą „LangChain“.







Kaip sukurti LLM ir LLMChain „LangChain“?

Norėdami sukurti LLM ir LLMChain „LangChain“, tiesiog atlikite šiuos veiksmus:



1 veiksmas: įdiekite modulius

Pirmiausia įdiekite „LangChain“ modulį, kad galėtumėte naudoti jo bibliotekas kurdami LLM ir LLMChain:



pip įdiegti langchain





Kitas modulis, reikalingas kurti LLM, yra OpenAI, ir jį galima įdiegti naudojant pip komandą:

pip install openai



2 veiksmas: nustatykite aplinką

Nustatykite aplinką naudodami OpenAI API raktą iš jos aplinkos:

importuoti mus
importuoti getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API raktas:')

1 pavyzdys: kurkite LLM naudodami „LangChain“.

Pirmasis pavyzdys yra sukurti didelių kalbų modelius naudojant LangChain importuojant OpenAI ir ChatOpenAI bibliotekas ir naudojant funkciją llm():

1 veiksmas: LLM pokalbių modelio naudojimas

Importuokite OpenAI ir ChatOpenAI modulius, kad sukurtumėte paprastą LLM naudodami OpenAI aplinką iš LangChain:

iš langchain.chat_models importuoti ChatOpenAI

iš langchain.llms importuoti OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('labas!')

Modelis atsakė „labas“, kaip parodyta toliau esančioje ekrano kopijoje:

Funkcija numatyti () iš chat_model naudojama norint gauti atsakymą arba atsakymą iš modelio:

chat_model.predict('labas!')

Išvestis rodo, kad modelis yra prieinamas vartotojui, užduodančiam užklausas:

2 veiksmas: teksto užklausos naudojimas

Vartotojas taip pat gali gauti atsakymus iš modelio, pateikdamas visą sakinį teksto kintamajame:

text = 'Koks būtų geras įmonės pavadinimas įmonei, kuri gamina spalvingas kojines?'

llm.predict(text)

Modelis demonstravo kelis spalvų derinius spalvingoms kojinėms:

Gaukite išsamų atsakymą iš modelio naudodami prognozės () funkciją su kojinių spalvų deriniais:

chat_model.predict(text)

3 veiksmas: teksto naudojimas su turiniu

Vartotojas gali gauti atsakymą su nedideliu atsakymo paaiškinimu:

iš langchain.schema importuoti HumanMessage

text = 'Koks būtų geras pavadinimas įmonei, kuriančiai spalvingus drabužius'
pranešimai = [HumanMessage(content=text)]

llm.predict_messages(messages)

Šis modelis sukūrė įmonės pavadinimą „Creative Clothing Co“:

Numatykite pranešimą, kad gautumėte atsakymą į įmonės pavadinimą su paaiškinimu:

chat_model.predict_messages(pranešimai)

2 pavyzdys: Sukurkite LLMChain naudodami LangChain

Antrasis mūsų vadovo pavyzdys sukuria LLMCchain, kad modelis būtų žmogaus sąveikos formatu, kad būtų sujungti visi ankstesnio pavyzdžio žingsniai:

iš langchain.chat_models importuoti ChatOpenAI
iš langchain.prompts.chat importuoti ChatPromptTemplate
iš langchain.prompts.chat importuoti ChatPromptTemplate
iš langchain.prompts.chat importavimo  SystemMessagePromptTemplatiš langchain.prompts.chat importavimo HumanMessagePromptTemplate
iš langchain.chains importuoti LLMChain
iš langchain.schema importuoti BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def analizuoti(savarankiškai, tekstas: str):
grąžinti text.strip().split(', ')

Sukurkite pokalbių modelio šabloną, pateikdami išsamų jo veikimo paaiškinimą, tada sukurkite funkciją LLMChain() su LLM, išvesties analizatoriumi ir chat_prompt bibliotekomis:

template = '''Turite padėti generuoti kableliais atskirtus sąrašus
Gaukite kategoriją iš vartotojo ir sugeneruokite kableliais atskirtą sąrašą su penkiais objektais
Vienintelis dalykas turėtų būti objektas iš kategorijos'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{tekstas}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Konfigūruokite LLMChain su užklausos struktūra
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
grandinė = LLMchain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('spalvos')

Modelis pateikė atsakymą su spalvų sąrašu, nes kategorijoje turėtų būti tik 5 užklausoje nurodyti objektai:

Tai viskas apie LLM ir LLMChain kūrimą „LangChain“.

Išvada

Norėdami sukurti LLM ir LLMChain naudodami LangChain, tiesiog įdiekite LangChain ir OpenAI modulius, kad nustatytumėte aplinką naudodami API raktą. Po to sukurkite LLM modelį naudodami chat_model, sukūrę vienos užklausos raginimo šabloną visam pokalbiui. LLMChain naudojamos visų pokalbio stebėjimų grandinėms kurti ir naudoti kaip sąveikos kontekstą. Šis įrašas iliustruoja LLM ir LLMChain kūrimo procesą naudojant LangChain sistemą.