Cum să utilizați funcția LangChain LLMChain în Python

Cum Sa Utilizati Functia Langchain Llmchain In Python



LangChain are o multitudine de module pentru crearea de aplicații de model de limbaj. Aplicațiile pot fi complicate prin combinarea modulelor sau pot fi simplificate folosind un singur modul. Apelarea unui LLM pe o anumită intrare este cea mai esențială componentă LangChain.

Lanțurile nu funcționează doar pentru un singur apel LLM; sunt colecții de apeluri, fie către un LLM, fie către un alt utilitar. Lanțurile end-to-end pentru aplicații utilizate pe scară largă sunt furnizate de LangChain împreună cu un lanț API standard și numeroase integrări de instrumente.

Flexibilitatea și capacitatea de a lega mai multe elemente într-o singură entitate pot fi utile atunci când dorim să proiectăm un lanț care acceptă intrarea utilizatorului, îl configurează folosind un PromptTemplate și apoi livrează rezultatul generat unui LLM.







Acest articol vă ajută să înțelegeți utilizarea unei funcții LangChain LLMchain în Python.



Exemplu: Cum să utilizați funcția LLMchain în LangChain

Am vorbit despre ce sunt lanțurile. Acum, vom vedea o demonstrație practică a acestor lanțuri care sunt implementate într-un script Python. În acest exemplu, folosim cel mai simplu lanț LangChain, care este LLMchain. Conține un PromptTemplate și un LLM și le conectează pentru a genera o ieșire.



Pentru a începe implementarea conceptului, trebuie să instalăm câteva biblioteci necesare care nu sunt incluse în biblioteca standard Python. Bibliotecile pe care trebuie să le instalăm sunt LangChain și OpenAI. Instalăm biblioteca LangChain deoarece trebuie să folosim modulul LLMchain, precum și PromptTemplate. Biblioteca OpenAI ne permite să folosim modelele OpenAI pentru a prezice rezultatele, adică GPT-3.





Pentru a instala biblioteca LangChain, rulați următoarea comandă pe terminal:

$ pip install langchain

Instalați biblioteca OpenAI cu următoarea comandă:



$ pip install openai

Odată ce instalațiile sunt finalizate, putem începe să lucrăm la proiectul principal.

din langchain. solicitări import PromptTemplate

din langchain. llms import OpenAI

import tu

tu . aproximativ [ „OPENAI_API_KEY” ] = „sk-YOUR API KEY”

Proiectul principal începe prin importul modulelor necesare. Deci, importăm mai întâi PromptTemplate din biblioteca „langchain.prompts”. Apoi, importăm OpenAI din biblioteca „langchain.llms”. Apoi, importăm „os” pentru a seta variabila de mediu.

Inițial, am setat cheia API OpenAI ca variabilă de mediu. Variabila de mediu este o variabilă care constă dintr-un nume și o valoare și este setată pe sistemul nostru de operare. „os.environ” este un obiect care este folosit pentru a mapa variabilele de mediu. Deci, numim „os.environ”. Numele pe care l-am setat pentru cheia API este OPENAI_API_KEY. Apoi atribuim cheia API ca valoare. Cheia API este unică pentru fiecare utilizator. Deci, când practicați acest script de cod, scrieți cheia API secretă.

llm = OpenAI ( temperatura = 0,9 )

prompt = PromptTemplate (

variabile_de intrare = [ 'produse' ] ,

șablon = „Cum ar fi numită o marcă care vinde {produse}?” ,

)

Acum că cheia este setată ca variabilă de mediu, inițializam un wrapper. Setați temperatura pentru modelele OpenAI GPT. Temperatura este o caracteristică care ne ajută să stabilim cât de imprevizibil va fi răspunsul. Cu cât valoarea temperaturii este mai mare, cu atât răspunsurile sunt mai neregulate. Setăm aici valoarea temperaturii la 0,9. Astfel, obținem cele mai aleatorii rezultate.

Apoi, inițializam o clasă PromptTemplate. Când folosim LLM, generăm un prompt din intrarea care este preluată de la utilizator și apoi îl transmitem la LLM, mai degrabă decât să trimitem intrarea direct la LLM, care necesită o codificare hard (un prompt este o intrare pe care am preluat-o de la LLM utilizator și asupra căruia modelul AI definit ar trebui să creeze un răspuns). Deci, inițializam PromptTemplate. Apoi, în acoladele sale, definim variabila de intrare ca „Produse”, iar textul șablonului este „Cum ar fi numită o marcă care vinde {produse}?” Intrarea utilizatorului spune ce face marca. Apoi, formatează promptul pe baza acestor informații.

din langchain. lanţuri import LLMChain

lanţ = LLMChain ( llm = llm , prompt = prompt )

Acum că PromptTemplate este formatat, următorul pas este să creați un LLMchain. Mai întâi, importați modulul LLMchain din biblioteca „langchain.chain”. Apoi, creăm un lanț apelând funcția LLMchain() care preia intrarea utilizatorului și formatează promptul cu ea. În cele din urmă, trimite răspunsul la LLM. Deci, conectează PromptTemplate și LLM.

imprimare ( lanţ. alerga ( 'Materiale de Artă' ) )

Pentru a executa lanțul, apelăm metoda chain.run() și furnizăm intrarea utilizatorului ca parametru care este definit ca „Art Supplies”. Apoi, trecem această metodă funcției Python print() pentru a afișa rezultatul prezis pe consola Python.

Modelul AI citește promptul și face un răspuns pe baza acestuia.

Deoarece am cerut să numim o marcă care vinde materiale de artă, numele prezis de modelul AI poate fi văzut în următorul instantaneu:

Acest exemplu ne arată LLMchaining atunci când este furnizată o singură variabilă de intrare. Acest lucru este posibil și atunci când utilizați mai multe variabile. Pentru asta, trebuie pur și simplu să creăm un dicționar de variabile pentru a le introduce cu totul. Să vedem cum funcționează:

din langchain. solicitări import PromptTemplate

din langchain. llms import OpenAI

import tu

tu . aproximativ [ „OPENAI_API_KEY” ] = „sk- Your-API-KEY”

llm = OpenAI(temperatura=0,9)

prompt = PromptTemplate(

input_variables='
Marca ', ' Produs '],

template='
Care ar fi numele { Marca } care vinde { Produs } ? ',

)

din langchain.chains import LLMChain

lanț = LLMChain(llm=llm, prompt=prompt)

print(chain.run({

„Marcă”: „
Materiale de Artă ',

'Produs': '
culorile '

}))

Codul merge la fel ca exemplul anterior, cu excepția faptului că trebuie să trecem două variabile în clasa șablon prompt. Deci, creați un dicționar de input_variables. Parantezele lungi reprezintă un dicționar. Aici avem două variabile – „Brand” și „Product” – care sunt separate prin virgulă. Acum, textul șablonului pe care îl oferim este „Care ar fi numele {Brand} care vinde {Produs}?” Astfel, modelul AI prezice un nume care se concentrează pe aceste două variabile de intrare.

Apoi, creăm un LLMchain care formatează intrarea utilizatorului cu solicitarea de a trimite răspunsul la LLM. Pentru a rula acest lanț, folosim metoda chain.run() și trecem dicționarul de variabile cu intrarea utilizatorului ca „Brand”: „Art supplies” și „Product” ca „Colors”. Apoi, trecem această metodă funcției Python print() pentru a afișa răspunsul obținut.

Imaginea de ieșire arată rezultatul estimat:

Concluzie

Lanțurile sunt elementele de bază ale LangChain. Acest articol trece prin conceptul de utilizare a LLMchain în LangChain. Am făcut o introducere în LLMchain și am descris necesitatea de a le folosi în proiectul Python. Apoi, am realizat o ilustrare practică care demonstrează implementarea LLMchain prin conectarea PromptTemplate și LLM. Puteți crea aceste lanțuri cu o singură variabilă de intrare, precum și cu mai multe variabile furnizate de utilizator. Sunt furnizate de asemenea răspunsurile generate de modelul GPT.