Kaip naudoti „LangChain LLMChain“ funkciją „Python“.

Kaip Naudoti Langchain Llmchain Funkcija Python



LangChain turi daugybę modulių, skirtų kalbos modelių programoms kurti. Programos gali būti sudėtingesnės derinant modulius arba jas galima supaprastinti naudojant vieną modulį. LLM iškvietimas naudojant tam tikrą įvestį yra svarbiausias „LangChain“ komponentas.

Grandinės neveikia tik vienam LLM skambučiui; tai skambučių rinkinys LLM arba kitai programai. „LangChain“ teikia nuo galo iki galo plačiai naudojamoms programoms skirtas grandines kartu su standartine grandinės API ir daugybe įrankių integracijų.

Lankstumas ir galimybė susieti kelis elementus į vieną objektą gali būti naudingi, kai norime sukurti grandinę, kuri priima naudotojo įvestį, nustato ją naudodami PromptTemplate, o tada pateikia sugeneruotą rezultatą LLM.







Šis straipsnis padeda suprasti „LangChain LLMchain“ funkcijos naudojimą „Python“.



Pavyzdys: kaip naudoti „LLMchain“ funkciją „LangChain“.

Mes kalbėjome apie tai, kas yra grandinės. Dabar pamatysime praktinį šių grandinių, įdiegtų Python scenarijuje, demonstravimą. Šiame pavyzdyje mes naudojame paprasčiausią „LangChain“ grandinę, kuri yra LLMchain. Jame yra „PromptTemplate“ ir „LLM“ ir jie sujungiami, kad generuotų išvestį.



Norėdami pradėti įgyvendinti koncepciją, turime įdiegti kai kurias reikalingas bibliotekas, kurios nėra įtrauktos į standartinę Python biblioteką. Bibliotekos, kurias turime įdiegti, yra „LangChain“ ir „OpenAI“. Mes įdiegiame LangChain biblioteką, nes turime naudoti jos LLMchain modulį ir PromptTemplate. OpenAI biblioteka leidžia mums naudoti OpenAI modelius išvestims numatyti, ty GPT-3.





Norėdami įdiegti LangChain biblioteką, terminale paleiskite šią komandą:

$ pip įdiegti langchain

Įdiekite OpenAI biblioteką naudodami šią komandą:



$ pip įdiegti openai

Kai diegimas bus baigtas, galime pradėti dirbti su pagrindiniu projektu.

langchain. raginimai importuoti PromptTemplate

langchain. llms importuoti OpenAI

importuoti tu

tu . maždaug [ „OPENAI_API_KEY“ ] = „sk-YOUR API KEY“

Pagrindinis projektas prasideda importuojant reikiamus modulius. Taigi, pirmiausia importuojame „PromptTemplate“ iš „langchain.prompts“ bibliotekos. Tada importuojame OpenAI iš „langchain.llms“ bibliotekos. Tada importuojame „os“, kad nustatytų aplinkos kintamąjį.

Iš pradžių kaip aplinkos kintamąjį nustatėme OpenAI API raktą. Aplinkos kintamasis yra kintamasis, susidedantis iš pavadinimo ir reikšmės ir nustatytas mūsų operacinėje sistemoje. „os.environ“ yra objektas, naudojamas aplinkos kintamiesiems atvaizduoti. Taigi, mes vadiname „os.aplinka“. API rakto pavadinimas yra OPENAI_API_KEY. Tada kaip jo vertę priskiriame API raktą. API raktas yra unikalus kiekvienam vartotojui. Taigi, kai praktikuojate šį kodo scenarijų, parašykite savo slaptą API raktą.

llm = OpenAI ( temperatūros = 0.9 )

paraginti = PromptTemplate (

įvesties_kintamieji = [ 'Produktai' ] ,

šabloną = „Kaip būtų pavadintas prekės ženklas, parduodantis {produktus}? ,

)

Dabar, kai raktas nustatytas kaip aplinkos kintamasis, inicijuojame paketą. Nustatykite OpenAI GPT modelių temperatūrą. Temperatūra yra charakteristika, padedanti nustatyti, kaip nenuspėjama bus reakcija. Kuo aukštesnė temperatūros reikšmė, tuo netikslesni atsakymai. Čia nustatome temperatūros reikšmę 0,9. Taigi gauname labiausiai atsitiktinius rezultatus.

Tada inicijuojame klasę PromptTemplate. Kai naudojame LLM, sugeneruojame raginimą iš vartotojo paimtos įvesties, o tada perduodame ją LLM, o ne siunčiame įvestį tiesiai į LLM, kuriai reikalingas kietas kodavimas (raginimas yra įvestis, kurią paėmėme iš vartotojas ir kuriam apibrėžtas AI modelis turėtų sukurti atsakymą). Taigi, inicijuojame PromptTemplate. Tada riestiniuose skliaustuose įvesties_kintamąjį apibrėžiame kaip „Produktai“, o šablono tekstas yra „Kaip būtų pavadintas prekės ženklas, parduodantis {produktus}?“ Vartotojo įvestis nurodo, ką daro prekės ženklas. Tada jis suformatuoja raginimą pagal šią informaciją.

langchain. grandines importuoti LLMCchain

grandine = LLMCchain ( llm = llm , paraginti = paraginti )

Dabar, kai mūsų PromptTemplate yra suformatuotas, kitas žingsnis yra sukurti LLMchain. Pirmiausia importuokite LLMchain modulį iš „langchain.chain“ bibliotekos. Tada sukuriame grandinę iškviesdami LLMchain() funkciją, kuri paima vartotojo įvestį ir su ja suformatuoja raginimą. Galiausiai jis siunčia atsakymą LLM. Taigi, jis jungia „PromptTemplate“ ir LLM.

spausdinti ( grandine. paleisti ( 'Dailės reikmenys' ) )

Norėdami vykdyti grandinę, iškviečiame metodą chain.run() ir pateikiame vartotojo įvestį kaip parametrą, kuris apibrėžiamas kaip „Meno reikmenys“. Tada šį metodą perduodame funkcijai Python print(), kad Python konsolėje būtų rodomas numatomas rezultatas.

AI modelis nuskaito raginimą ir pagal jį pateikia atsakymą.

Kadangi paprašėme įvardyti prekės ženklą, parduodantį meno reikmenis, AI modelio prognozuojamas pavadinimas matomas šioje momentinėje nuotraukoje:

Šiame pavyzdyje parodyta LLMchaining, kai pateikiamas vienas įvesties kintamasis. Tai taip pat įmanoma naudojant kelis kintamuosius. Norėdami tai padaryti, mes tiesiog turime sukurti kintamųjų žodyną, kad galėtume juos įvesti. Pažiūrėkime, kaip tai veikia:

langchain. raginimai importuoti PromptTemplate

langchain. llms importuoti OpenAI

importuoti tu

tu . maždaug [ „OPENAI_API_KEY“ ] = „sk – jūsų API RAKTAS“

llm = OpenAI (temperatūra = 0,9)

prompt = PromptTemplate(

input_variables=['
Prekės ženklas ', ' Produktas '],

šablonas='
Koks būtų pavadinimas { Prekės ženklas } kad parduoda { Produktas } ? ',

)

iš langchain.chains importuoti LLMChain

grandinė = LLMCchain(llm = llm, prompt = prompt)

print(chain.run({

'Prekės ženklas': '
Dailės reikmenys ',

'Produktas': '
spalvos

}))

Kodas yra toks pat kaip ir ankstesniame pavyzdyje, išskyrus tai, kad turime perduoti du kintamuosius eilučių šablonų klasėje. Taigi, sukurkite įvesties_kintamųjų žodyną. Ilgi skliaustai žymi žodyną. Čia turime du kintamuosius – „Prekės ženklas“ ir „Produktas“, kurie yra atskirti kableliu. Dabar pateikiamas šablono tekstas: „Koks būtų {Prekės ženklas}, parduodantis {Produktą}, pavadinimas? Taigi, AI modelis numato pavadinimą, kuriame pagrindinis dėmesys skiriamas šiems dviem įvesties kintamiesiems.

Tada sukuriame LLM grandinę, kuri formatuoja vartotojo įvestį raginimu išsiųsti atsakymą LLM. Norėdami paleisti šią grandinę, naudojame metodą chain.run() ir perduodame kintamųjų žodyną, naudotojo įvestą kaip „Prekės ženklas“: „Meno reikmenys“ ir „Produktas“ kaip „Spalvos“. Tada šį metodą perduodame funkcijai Python print(), kad būtų rodomas gautas atsakymas.

Išvesties paveikslėlyje rodomas numatomas rezultatas:

Išvada

Grandinės yra „LangChain“ sudedamoji dalis. Šiame straipsnyje aprašoma LLMchain naudojimo LangChain koncepcija. Mes pristatėme LLMchain ir pavaizdavome poreikį juos panaudoti Python projekte. Tada atlikome praktinę iliustraciją, kuri parodo LLMchain įgyvendinimą sujungus PromptTemplate ir LLM. Galite sukurti šias grandines naudodami vieną įvesties kintamąjį, taip pat kelis vartotojo pateiktus kintamuosius. Taip pat pateikiami sugeneruoti GPT modelio atsakymai.