Cum să utilizați graficul de cunoștințe de conversație în LangChain?

Cum Sa Utilizati Graficul De Cunostinte De Conversatie In Langchain



LangChain este modulul pentru a crea modele de limbaj care pot imita formatul conversațional, așa cum oamenii interacționează între ei. Utilizatorul poate pune întrebări sub formă de șiruri de caractere sau text în limbaje naturale, iar modelul va extrage sau genera informații pentru utilizator. Aceste modele au memorie atașată, astfel încât să poată stoca mesajele anterioare pentru a obține contextul conversației.

Acest ghid va ilustra procesul de utilizare a graficului de cunoștințe de conversație în LangChain.

Cum să utilizați graficul de cunoștințe de conversație în LangChain?

The ConversațieKGMemorie biblioteca poate fi folosită pentru a recrea memoria care poate fi folosită pentru a obține contextul interacțiunii. Pentru a învăța procesul de utilizare a graficului de cunoștințe de conversație în LangChain, parcurgeți pur și simplu pașii enumerați:







Pasul 1: Instalați module

Mai întâi, începeți procesul de utilizare a graficului de cunoștințe de conversație instalând modulul LangChain:



pip install langchain



Instalați modulul OpenAI care poate fi instalat folosind comanda pip pentru a obține bibliotecile sale pentru construirea de modele de limbaj mari:





pip install openai

Acum, configura mediul folosind cheia API OpenAI care poate fi generată din contul său:



import tu

import getpass

tu . aproximativ [ „OPENAI_API_KEY” ] = getpass . getpass ( „Cheia API OpenAI:” )

Pasul 2: Utilizarea memoriei cu LLM

Odată ce modulele sunt instalate, începeți să utilizați memoria cu LLM importând bibliotecile necesare din modulul LangChain:

din langchain. memorie import ConversațieKGMemorie

din langchain. llms import OpenAI

Construiți LLM folosind metoda OpenAI() și configurați memoria folosind ConversațieKGMemorie () metoda. După aceea, salvați șabloanele de prompt folosind mai multe intrări cu răspunsul lor respectiv pentru a antrena modelul pe aceste date:

llm = OpenAI ( temperatura = 0 )

memorie = ConversațieKGMemorie ( llm = llm )

memorie. salvare_context ( { 'intrare' : 'Saluteaza-l pe John' } , { 'ieșire' : 'John! Cine' } )

memorie. salvare_context ( { 'intrare' : 'el este un prieten' } , { 'ieșire' : 'sigur' } )

Testați memoria încărcând fișierul memorie_variabile () metoda folosind interogarea legată de datele de mai sus:

memorie. load_memory_variables ( { 'intrare' : 'cine este Ioan' } )

Configurați memoria folosind metoda ConversationKGMemory() cu return_messages argument pentru a obține și istoricul intrării:

memorie = ConversațieKGMemorie ( llm = llm , return_messages = Adevărat )

memorie. salvare_context ( { 'intrare' : 'Saluteaza-l pe John' } , { 'ieșire' : 'John! Cine' } )

memorie. salvare_context ( { 'intrare' : 'el este un prieten' } , { 'ieșire' : 'sigur' } )

Pur și simplu testați memoria furnizând argumentului de intrare valoarea sa sub forma unei interogări:

memorie. load_memory_variables ( { 'intrare' : 'cine este Ioan' } )

Acum, testați memoria punând întrebarea care nu este menționată în datele de antrenament, iar modelul nu are idee despre răspuns:

memorie. get_current_entities ( „Care este culoarea preferată a lui John” )

Folosește obţine_cunoaştere_tripleţi () prin răspunsul la întrebarea solicitată anterior:

memorie. obţine_cunoaştere_tripleţi ( „culoarea lui preferată este roșu” )

Pasul 3: Utilizarea memoriei în lanț

Următorul pas folosește memoria de conversație cu lanțurile pentru a construi modelul LLM folosind metoda OpenAI(). După aceea, configurați șablonul prompt folosind structura conversației și textul va fi afișat în timp ce obțineți rezultatul de către model:

llm = OpenAI ( temperatura = 0 )
din langchain. solicitări . prompt import PromptTemplate
din langchain. lanţuri import ConversationChain

șablon = '''Acesta este șablonul pentru interacțiunea dintre om și mașină
Sistemul este un model AI care poate vorbi sau extrage informații despre mai multe aspecte
Dacă nu înțelege întrebarea sau are răspunsul, pur și simplu spune așa
Sistemul extrage datele stocate în secțiunea „Specific” și nu halucinează

Specific:

{istorie}

Conversaţie:
Om: {input}
AI:'''

#Configurați șablonul sau structura pentru furnizarea de solicitări și obținerea de răspuns de la sistemul AI
prompt = PromptTemplate ( variabile_de intrare = [ 'istorie' , 'intrare' ] , șablon = șablon )
conversație_cu_kg = ConversationChain (
llm = llm , verboroasă = Adevărat , prompt = prompt , memorie = ConversațieKGMemorie ( llm = llm )
)

Odată ce modelul este creat, pur și simplu apelați conversație_cu_kg modelați folosind metoda predict() cu interogarea cerută de utilizator:

conversație_cu_kg. prezice ( intrare = 'Bună! Ce faci?' )

Acum, antrenați modelul folosind memoria de conversație, oferind informațiile ca argument de intrare pentru metodă:

conversație_cu_kg. prezice (

intrare = „Numele meu este James și îl ajut pe Will, este inginer”

)

Iată momentul pentru a testa modelul solicitând interogărilor să extragă informații din date:

conversație_cu_kg. prezice ( intrare = „Cine este Will” )

Este vorba despre utilizarea graficului de cunoștințe de conversație în LangChain.

Concluzie

Pentru a utiliza graficul de cunoștințe de conversație în LangChain, instalați modulele sau cadrele pentru a importa biblioteci pentru utilizarea metodei ConversationKGMemory(). După aceea, construiți modelul folosind memoria pentru a construi lanțurile și pentru a extrage informații din datele de antrenament furnizate în configurație. Acest ghid a elaborat procesul de utilizare a graficului de cunoștințe de conversație în LangChain.