Cum să construiți LLM și LLMChain în LangChain?

Cum Sa Construiti Llm Si Llmchain In Langchain



LangChain este cadrul cu aplicația în domeniul procesării limbajului natural sau NLP pentru a construi modele în limbaje asemănătoare oamenilor. Aceste modele pot fi folosite de oameni pentru a obține răspunsuri de la model sau pentru a avea o conversație ca orice alt om. LangChain este folosit pentru a construi lanțuri prin stocarea fiecărei propoziții din conversație și interacționând în continuare folosind-o ca context.

Această postare va ilustra procesul de construire a LLM și LLMChain în LangChain.







Cum să construiți LLM și LLMChain în LangChain?

Pentru a construi LLM și LLMChain în LangChain, parcurgeți pașii enumerați:



Pasul 1: Instalați module

În primul rând, instalați modulul LangChain pentru a-și folosi bibliotecile pentru a construi LLM-uri și LLMChain:



pip install langchain





Un alt modul care este necesar pentru a construi LLM-uri este OpenAI și poate fi instalat folosind comanda pip:

pip install openai



Pasul 2: Configurați un mediu

Configurați un mediu folosind cheia API OpenAI din mediul său:

importă-ne
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Exemplul 1: Construiți LLM-uri folosind LangChain

Primul exemplu este de a construi modele de limbaj mari folosind LangChain, importând bibliotecile OpenAI și ChatOpenAI și folosiți funcția llm():

Pasul 1: Utilizarea modelului de chat LLM

Importați module OpenAI și ChatOpenAI pentru a construi un LLM simplu folosind mediul OpenAI de la LangChain:

din langchain.chat_models import ChatOpenAI

din langchain.llms import OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict(„bună!”)

Modelul a răspuns cu răspunsul „bună”, așa cum este afișat în următoarea captură de ecran de mai jos:

Funcția predict() din chat_model este folosită pentru a obține răspunsul sau răspunsul de la model:

chat_model.predict(„bună!”)

Ieșirea arată că modelul este la dispoziția utilizatorului care solicită întrebări:

Pasul 2: Utilizarea interogării text

De asemenea, utilizatorul poate obține răspunsuri de la model dând propoziția completă în variabila text:

text = 'Care ar fi un nume bun de companie pentru o companie care face șosete colorate?'

llm.predict(text)

Modelul a afișat mai multe combinații de culori pentru șosete colorate:

Obțineți răspunsul detaliat de la model folosind funcția predict() cu combinațiile de culori pentru șosete:

chat_model.predict(text)

Pasul 3: Utilizarea textului cu conținut

Utilizatorul poate obține răspunsul cu o mică explicație despre răspuns:

din langchain.schema import HumanMessage

text = „Care ar fi un titlu bun pentru o companie care produce haine colorate”
mesaje = [HumanMessage(conținut=text)]

llm.predict_messages(mesaje)

Modelul a generat titlul companiei care este „Creative Clothing Co”:

Preziceți mesajul pentru a obține răspunsul și pentru titlul companiei cu explicația sa:

chat_model.predict_messages(mesaje)

Exemplul 2: Construiți LLMChain folosind LangChain

Al doilea exemplu al ghidului nostru construiește LLMChain pentru a obține modelul în formatul interacțiunii umane pentru a combina toți pașii din exemplul anterior:

din langchain.chat_models import ChatOpenAI
din langchain.prompts.chat import ChatPromptTemplate
din langchain.prompts.chat import ChatPromptTemplate
din langchain.prompts.chat import  SystemMessagePromptTemplatefrom langchain.prompts.chat import HumanMessagePromptTemplate
din langchain.chains import LLMChain
din langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
returnează text.strip().split(', ')

Construiți șablonul pentru modelul de chat oferind o explicație detaliată a funcționării acestuia și apoi construiți funcția LLMChain() care conține bibliotecile LLM, parser de ieșire și chat_prompt:

template = '''Trebuie să ajuți la generarea listelor separate prin virgulă
Obțineți categoria de la utilizator și generați o listă separată prin virgulă cu cinci obiecte
Singurul lucru ar trebui să fie obiectul din categoria '''
system_message_prompt = SystemMessagePromptTemplate.from_template(șablon)
human_template = '{text}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Configurați LLMChain cu structura interogării
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
lanț = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run ('culori')

Modelul a oferit răspunsul cu lista de culori, deoarece categoria ar trebui să conțină doar 5 obiecte date în prompt:

Acesta este totul despre construirea LLM și LLMChain în LangChain.

Concluzie

Pentru a construi LLM și LLMChain folosind LangChain, instalați pur și simplu modulele LangChain și OpenAI pentru a configura un mediu folosind cheia API. După aceea, construiți modelul LLM folosind chat_model după ce ați creat șablonul de prompt pentru o singură interogare la un chat complet. LLMChain sunt folosite pentru a construi lanțuri de toate observațiile din conversație și pentru a le folosi ca context al interacțiunii. Această postare ilustrează procesul de construire a LLM și LLMChain folosind cadrul LangChain.