Cum să adăugați starea memoriei în lanț folosind LangChain?

Cum Sa Adaugati Starea Memoriei In Lant Folosind Langchain



LangChain permite dezvoltatorilor să construiască modele de chat care pot avea o conversație cu oamenii folosind limbaje naturale. Pentru a avea o conversație eficientă, modelul trebuie să aibă o memorie a locului în care este stocat contextul conversației. Modelele LangChain pot stoca mesajele de chat ca observații, astfel încât rezultatul să poată fi tot timpul în contextul conversației

Acest ghid va ilustra procesul de încărcare a lanțurilor de la LangChain Hub.

Cum să adăugați starea memoriei în lanț folosind LangChain?

Starea memoriei poate fi utilizată pentru a inițializa lanțurile, deoarece se poate referi la valoarea recentă stocată în lanțuri care va fi folosită în timp ce returnează rezultatul. Pentru a afla procesul de adăugare a unei stări de memorie în lanțuri folosind cadrul LangChain, parcurgeți pur și simplu acest ghid ușor:







Pasul 1: Instalați module

În primul rând, intrați în proces instalând cadrul LangChain cu dependențele sale folosind comanda pip:



pip install langchain



Instalați și modulul OpenAI pentru a obține bibliotecile sale care pot fi folosite pentru a adăuga starea memoriei în lanț:





pip install openai

Obțineți cheia API din contul OpenAI și configura mediul folosind-o astfel încât lanțurile să poată accesa el:



import tu

import getpass

tu . aproximativ [ „OPENAI_API_KEY” ] = getpass . getpass ( „Cheia API OpenAI:” )

Acest pas este important pentru ca codul să funcționeze corect.

Pasul 2: importați biblioteci

După configurarea mediului, pur și simplu importați bibliotecile pentru a adăuga starea memoriei, cum ar fi LLMChain, ConversationBufferMemory și multe altele:

din langchain. lanţuri import ConversationChain

din langchain. memorie import ConversationBufferMemory

din langchain. chat_models import ChatOpenAI

din langchain. lanţuri . llm import LLMChain

din langchain. solicitări import PromptTemplate

Pasul 3: Construirea lanțurilor

Acum, pur și simplu construiți lanțuri pentru LLM folosind metoda OpenAI() și șablonul promptului folosind interogarea pentru a apela lanțul:

conversație = ChatOpenAI ( temperatura = 0 )

prompt_template = „Scrieți o glumă {style}”

llm_chain = LLMChain ( llm = conversație , prompt = PromptTemplate. din_şablon ( prompt_template ) )

llm_chain ( intrări = { 'stil' : 'scurtat' } )

Modelul a afișat rezultatul folosind modelul LLM așa cum este afișat în captura de ecran de mai jos:

Pasul 4: Adăugarea stării memoriei

Aici vom adăuga starea memoriei în lanț folosind metoda ConversationBufferMemory() și vom rula lanțul pentru a obține 3 culori din curcubeu:

conversaţie = ConversationChain (

llm = conversație ,

memorie = ConversationBufferMemory ( )

)

conversaţie. alerga ( „dați pe scurt cele 3 culori în curcubeu” )

Modelul a afișat doar trei culori ale curcubeului și contextul este stocat în memoria lanțului:

Aici rulăm lanțul cu o comandă ambiguă ca „ alte 4? ” astfel încât modelul în sine obține contextul din memorie și afișează culorile curcubeului rămase:

conversaţie. alerga ( 'alte 4?' )

Modelul a făcut exact asta, deoarece a înțeles contextul și a returnat cele patru culori rămase din setul curcubeu:

Este vorba despre încărcarea lanțurilor de la LangChain Hub.

Concluzie

Pentru a adăuga memoria în lanțuri folosind cadrul LangChain, pur și simplu instalați module pentru a configura mediul pentru construirea LLM. După aceea, importați bibliotecile necesare pentru a construi lanțurile în LLM și apoi adăugați starea memoriei la acesta. După ce adăugați starea memoriei în lanț, pur și simplu dați o comandă lanțului pentru a obține rezultatul și apoi dați o altă comandă în contextul celei anterioare pentru a obține răspunsul corect. Această postare a elaborat procesul de adăugare a unei stări de memorie în lanțuri folosind cadrul LangChain.