Cum se utilizează rezumatul conversației în LangChain?

Cum Se Utilizeaza Rezumatul Conversatiei In Langchain



LangChain este cadrul care poate fi folosit pentru a construi modele de limbaj folosind cantitatea masivă de seturi de date de antrenament construite în limbaje naturale. LangChain oferă bibliotecile și dependențele care pot fi folosite pentru a construi și gestiona chatbot-uri și modele de limbă precum LLM-urile. Aceste modele sunt în mare parte considerate mașini pentru a avea o conversație sau pentru a extrage unele informații pe baza solicitărilor scrise în limbaje asemănătoare oamenilor.

Acest ghid va ilustra procesul de utilizare a unui rezumat conversație în LangChain.

Cum se utilizează rezumatul conversației în LangChain?

LangChain oferă biblioteci precum ConversationSummaryMemory care pot extrage rezumatul complet al chat-ului sau conversației. Poate fi folosit pentru a obține informațiile principale ale conversației fără a fi nevoie să citiți toate mesajele și textul disponibil în chat.







Pentru a afla procesul de utilizare a rezumatului conversației în LangChain, mergeți pur și simplu în următorii pași:



Pasul 1: Instalați module

Mai întâi, instalați cadrul LangChain pentru a obține dependențele sau bibliotecile sale folosind următorul cod:



pip install langchain





Acum, instalați modulele OpenAI după instalarea LangChain folosind comanda pip:

pip install openai



După instalarea modulelor, pur și simplu configura mediul folosind următorul cod după obținerea cheii API din contul OpenAI:

import tu

import getpass

tu . aproximativ [ „OPENAI_API_KEY” ] = getpass . getpass ( „Cheie API OpenAI:” )

Pasul 2: Utilizarea rezumatului conversației

Intră în procesul de utilizare a rezumatului conversației importând bibliotecile din LangChain:

din langchain. memorie import ConversationSummaryMemorie , ChatMessageHistory

din langchain. llms import OpenAI

Configurați memoria modelului folosind metodele ConversationSummaryMemory() și OpenAI() și salvați datele în el:

memorie = ConversationSummaryMemorie ( llm = OpenAI ( temperatura = 0 ) )

memorie. salvare_context ( { 'intrare' : 'Buna ziua' } , { 'ieșire' : 'Bună' } )

Rulați memoria apelând la load_memory_variables() metoda de extragere a datelor din memorie:

memorie. load_memory_variables ( { } )

Utilizatorul poate obține, de asemenea, datele sub formă de conversație ca fiecare entitate cu un mesaj separat:

memorie = ConversationSummaryMemorie ( llm = OpenAI ( temperatura = 0 ) , return_messages = Adevărat )

memorie. salvare_context ( { 'intrare' : 'Buna ziua' } , { 'ieșire' : 'Salut ce faci' } )

Pentru a obține mesajul AI și al oamenilor separat, executați metoda load_memory_variables():

memorie. load_memory_variables ( { } )

Stocați rezumatul conversației în memorie și apoi executați memoria pentru a afișa rezumatul chat/conversației pe ecran:

mesaje = memorie. chat_memory . mesaje

rezumat_anterior = ''

memorie. predict_new_summary ( mesaje , rezumat_anterior )

Pasul 3: Utilizarea rezumatului conversației cu mesajele existente

De asemenea, utilizatorul poate obține rezumatul conversației care există în afara clasei sau prin chat folosind mesajul ChatMessageHistory(). Aceste mesaje pot fi adăugate în memorie, astfel încât să poată genera automat rezumatul conversației complete:

istorie = ChatMessageHistory ( )

istorie. add_user_message ( 'Bună' )

istorie. add_ai_message ( 'bună!' )

Construiți modelul, cum ar fi LLM, folosind metoda OpenAI() pentru a executa mesajele existente în chat_memory variabil:

memorie = ConversationSummaryMemorie. din_mesaje (
llm = OpenAI ( temperatura = 0 ) ,
chat_memory = istorie ,
return_messages = Adevărat
)

Executați memoria folosind bufferul pentru a obține rezumatul mesajelor existente:

memorie. tampon

Executați următorul cod pentru a construi LLM prin configurarea memoriei tampon folosind mesajele de chat:

memorie = ConversationSummaryMemorie (
llm = OpenAI ( temperatura = 0 ) ,
tampon = ''' Omul întreabă mașina care întreabă despre sine
Sistemul răspunde că AI este construită pentru bine, deoarece poate ajuta oamenii să-și atingă potențialul'''
,
chat_memory = istorie ,
return_messages = Adevărat
)

Pasul 4: Utilizarea rezumatului conversației în lanț

Următorul pas explică procesul de utilizare a rezumatului conversației într-un lanț folosind LLM:

din langchain. llms import OpenAI
din langchain. lanţuri import ConversationChain
llm = OpenAI ( temperatura = 0 )
conversație_cu_rezumat = ConversationChain (
llm = llm ,
memorie = ConversationSummaryMemorie ( llm = OpenAI ( ) ) ,
verboroasă = Adevărat
)
conversație_cu_rezumat. prezice ( intrare = 'Salut ce mai faceţi' )

Aici am început să construim lanțuri, pornind conversația cu o întrebare politicoasă:

Acum intrați în conversație întrebând puțin mai multe despre ultima ieșire pentru a o extinde:

conversație_cu_rezumat. prezice ( intrare = 'Spune-mi mai mult despre aceasta!' )

Modelul a explicat ultimul mesaj cu o introducere detaliată în tehnologia AI sau chatbot:

Extrageți un punct de interes din rezultatul precedent pentru a duce conversația într-o direcție specifică:

conversație_cu_rezumat. prezice ( intrare = 'Uimitor Cât de bun este acest proiect?' )

Aici primim răspunsuri detaliate de la bot folosind biblioteca de memorie a rezumatului conversației:

Este vorba despre utilizarea rezumatului conversației în LangChain.

Concluzie

Pentru a utiliza mesajul rezumat al conversației în LangChain, instalați pur și simplu modulele și cadrele necesare pentru a configura mediul. Odată ce mediul este setat, importați ConversationSummaryMemorie bibliotecă pentru a construi LLM-uri folosind metoda OpenAI(). După aceea, pur și simplu utilizați rezumatul conversației pentru a extrage rezultatul detaliat din modele, care este rezumatul conversației anterioare. Acest ghid a elaborat procesul de utilizare a memoriei rezumate a conversației folosind modulul LangChain.