Cum se utilizează analizatorul de ieșire structurat în LangChain?

Cum Se Utilizeaza Analizatorul De Iesire Structurat In Langchain



LangChain este cadrul pentru a construi modele de chat și LLM-uri pentru a obține informații din setul de date sau de pe internet folosind mediul OpenAI. Analizorul de ieșire structurat este folosit pentru a obține mai multe câmpuri sau răspunsuri, cum ar fi răspunsul real și câteva informații suplimentare legate. Bibliotecile de analiză de ieșire pot fi utilizate cu LangChain pentru a extrage date folosind modelele construite ca LLM-uri sau modele de chat.

Această postare a demonstrat procesul de utilizare a analizatorului de ieșire structurat în LangChain.







Cum se utilizează analizatorul de ieșire structurat în LangChain?

Pentru a utiliza analizatorul de ieșire structurat în LangChain, parcurgeți acești pași:



Pasul 1: Instalați cerințele preliminare



Începeți procesul instalând cadrul LangChain dacă nu este deja instalat în mediul dvs. Python:





pip instalare langchain



Instalați cadrul OpenAI pentru a accesa metodele sale pentru a construi un parser în LangChain:

pip instalare openai

După aceea, pur și simplu conectați-vă la mediul OpenAI folosind cheia API pentru a accesa mediul său folosind „ tu ” și furnizați cheia API folosind „ getpass ” biblioteca:

importă-ne
import getpass

os.mediu [ „OPENAI_API_KEY” ] = getpass.getpass ( „Cheie API OpenAI:” )

Pasul 2: Creați schema pentru ieșire/răspuns

După ce obțineți conexiunea la OpenAI, pur și simplu importați bibliotecile pentru a construi schema pentru generarea rezultatului:

din langchain.output_parsers import StructuredOutputParser, ResponseSchema
din langchain.prompts import PromptTemplate, ChatPromptTemplate, HumanMessagePromptTemplate
din langchain.llms import OpenAI
din langchain.chat_models import ChatOpenAI

Specificați schema pentru răspuns conform cerinței, astfel încât modelul să genereze răspunsul în consecință:

scheme_de răspuns = [
Schema de răspuns ( Nume = 'Răspuns' , Descriere = 'raspunde la intrebare' ) ,
Schema de răspuns ( Nume = 'sursă' , Descriere = „sursa site-ului care este folosită pentru a obține răspunsul” )
]
output_parser = StructuredOutputParser.from_response_schemas ( scheme_răspuns )

Pasul 3: Formatați șablonul

După configurarea schemei pentru ieșire, pur și simplu setați șablonul pentru intrare în limbaj natural, astfel încât modelul să poată înțelege întrebările înainte de a prelua răspunsul pentru acesta:

format_instructions = output_parser.get_format_instructions ( )
prompt = PromptTemplate (
șablon = „Dați răspuns la întrebarea utilizatorului. \n {șablon} \n {interogare}' ,
variabile_de intrare = [ 'interogare' ] ,
variabile_parțiale = { 'șablon' : format_instructions }
)

Metoda 1: Utilizarea modelului de limbaj

După ce ați configurat șabloanele de format pentru întrebări și răspunsuri, pur și simplu construiți modelul folosind funcția OpenAI():

model = OpenAI ( temperatura = 0 )

Setați promptul în „ interogare ” variabilă și treceți-l la format_prompt() funcţionează ca intrare şi apoi stochează răspunsul în „ ieșire ' variabil:

_input = prompt.format_prompt ( interogare = „câte continente sunt în lume” )
output = model ( _input.to_string ( ) )

Suna analiza() funcția cu variabila de ieșire ca argument pentru a obține răspunsul de la model:

output_parser.parse ( ieșire )

Analizorul de ieșire primește răspunsul la interogare și afișează un răspuns detaliat cu linkul către pagina site-ului web care este folosit pentru a obține răspunsul:

Metoda 2: Utilizarea modelului de chat

Pentru a obține rezultate din analizatorul de ieșire din LangChain, utilizați chat_model variabila de mai jos:

chat_model = ChatOpenAI ( temperatura = 0 )

Pentru a înțelege solicitarea, configurați șablonul de solicitare pentru modelul de chat. Apoi, generați răspunsul în funcție de intrare:

prompt = ChatPromptTemplate (
mesaje = [
HumanMessagePromptTemplate.from_template ( „Dați răspuns la întrebarea utilizatorului. \n {format_instructions} \n {interogare}' )
] ,
variabile_de intrare = [ 'interogare' ] ,
variabile_parțiale = { 'format_instructions' : format_instructions }
)

După aceea, pur și simplu furnizați intrarea în „ interogare ” variabilă și apoi treceți-o către chat_model() funcție pentru a obține rezultatul de la model:

_input = prompt.format_prompt ( interogare = „SUA reprezintă” )
output = chat_model ( _input.la_mesaje ( ) )

Pentru a obține răspunsul de la modelul de chat, utilizați output_parser-ul care stochează rezultatul din „ ieșire ' variabil:

output_parser.parse ( ieșire.conținut )

Modelul de chat a afișat răspunsul la interogare și numele site-ului web care este folosit pentru a obține răspunsul de pe internet:

Acesta este totul despre utilizarea unui parser de ieșire structurat în LangChain.

Concluzie

Pentru a utiliza analizatorul structurat de ieșire în LangChain, instalați pur și simplu modulele LangChain și OpenAI pentru a începe procesul. După aceea, conectați-vă la mediul OpenAI folosind cheia sa API și apoi configurați șabloanele de prompt și răspuns pentru model. Analizatorul de ieșire poate fi utilizat fie cu un model de limbă, fie cu un model de chat. Acest ghid explică utilizarea parserului de ieșire cu ambele metode.