LangChain으로 LLM RAG 챗봇 구축 III

2024. 4. 16. 20:22python/intermediate

프롬프트 템플릿

 

LangChain을 사용하면 프롬프트 템플릿을 사용하여 챗봇을 위한 모듈식 프롬프트를 디자인할 수 있습니다. LangChain의 문서를 인용하면 프롬프트 템플릿을 언어 모델에 대한 프롬프트를 생성하기 위한 사전 정의된 레시피로 생각할 수 있습니다.

리뷰를 통해 환자 경험에 대한 질문에 답변하는 챗봇을 구축한다고 가정해 보겠습니다. 이에 대한 프롬프트 템플릿은 다음과 같습니다.

 
[ ]:
from langchain.prompts import ChatPromptTemplate
 
review_template_str = """Your job is to use patient
reviews to answer questions about their experience at a hospital.
Use the following context to answer questions. Be as detailed
as possible, but don't make up any information that's not
from the context. If you don't know an answer, say you don't know.
 
{context}
 
{question}
"""
 
review_template = ChatPromptTemplate.from_template(review_template_str)
 
context = "I had a great stay!"
question = "Did anyone have a positive experience?"
 
review_template.format(context=context, question=question)
 
 
 

먼저 LangChain이 중괄호({})로 구분하는 대체 필드 question 및 변수 context와 함께 모델에 전달할 지침이 포함된 ChatPromptTemplate를 가져오고 review_template_str을 정의합니다. 그런 다음 클래스 메소드 .from_template()를 사용하여 review_template_str라는 ChatPromptTemplate 객체를 만듭니다.

review_template 인스턴스화를 사용하면 review_template.format()를 사용하여 문자열 템플릿에 context과 question를 전달할 수 있습니다. 결과는 표준 Python 문자열 보간 외에는 아무것도 수행하지 않은 것처럼 보일 수 있지만 프롬프트 템플릿에는 채팅 모델과 통합할 수 있는 유용한 기능이 많이 있습니다.

이전 review_template.format() 호출에서 처음에 Human을 사용하여 문자열을 생성한 방법에 주목하세요. 이는 ChatPromptTemplate.from_template()이 기본적으로 문자열 템플릿을 사람의 메시지라고 가정하기 때문입니다. 이를 변경하려면 모델에서 처리할 각 채팅 메시지에 대해 더 자세한 프롬프트 템플릿을 생성하면 됩니다.

 
[ ]:
from langchain.prompts import (
PromptTemplate,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
ChatPromptTemplate,
)
 
review_system_template_str = """Your job is to use patient
reviews to answer questions about their experience at a
hospital. Use the following context to answer questions.
Be as detailed as possible, but don't make up any information
that's not from the context. If you don't know an answer, say
you don't know.
 
{context}
"""
 
review_system_prompt = SystemMessagePromptTemplate(
prompt=PromptTemplate(
input_variables=["context"], template=review_system_template_str
)
)
 
review_human_prompt = HumanMessagePromptTemplate(
prompt=PromptTemplate(
input_variables=["question"], template="{question}"
)
)
 
messages = [review_system_prompt, review_human_prompt]
review_prompt_template = ChatPromptTemplate(
input_variables=["context", "question"],
messages=messages,
)
context = "I had a great stay!"
question = "Did anyone have a positive experience?"
 
review_prompt_template.format_messages(context=context, question=question)
 
 
 

이 블록에서는 HumanMessage 및 SystemMessage에 대한 별도의 프롬프트 템플릿을 가져옵니다. 그런 다음 SystemMessage의 템플릿 역할을 하는 review_system_template_str 문자열을 정의합니다. NET context에서 review_system_template_str 변수만 선언하는 방법에 주목하세요.

여기에서 특별히 SystemMessage에 대한 프롬프트 템플릿인 review_system_prompt을 만듭니다. 다음으로 HumanMessage에 대한 review_human_prompt를 만듭니다. template 매개변수가 question 변수가 포함된 문자열인 것에 주목하세요.

그런 다음 messages 및 review_prompt_template 생성 이라는 목록에 review_system_prompt 및 review_human_prompt를 추가합니다. 이는 SystemMessage 및 HumanMessage 모두에 대한 프롬프트 템플릿을 포함하는 최종 개체입니다. review_prompt_template.format_messages(context=context, question=question)을 호출하면 SystemMessage 및 HumanMessage를 채팅 모델에 전달될 수 있는 목록이 생성됩니다.

채팅 모델과 프롬프트 템플릿을 결합하는 방법을 알아보기 위해 LCEL(LangChain Expression Language)을 사용하여 체인을 구축합니다. 이는 채팅 모델을 통해 모듈식 맞춤형 인터페이스를 구축하는 LangChain의 핵심 기능을 잠금 해제하는 데 도움이 됩니다.

 

체인 및 LangChain 표현 언어(LCEL)

 

LangChain의 채팅 모델, 프롬프트 및 기타 개체를 연결하는 접착제는 체인 입니다. 체인은 LangChain의 개체 간의 일련의 호출에 지나지 않습니다. 체인을 구축하는 데 권장되는 방법은 LCEL(LangChain Expression Language)을 사용하는 것입니다.

이것이 어떻게 작동하는지 보려면 채팅 모델과 프롬프트 템플릿을 사용하여 체인을 만드는 방법을 살펴보세요.

 
[ ]:
# langchain_intro/chatbot.py
 
import dotenv
from langchain_openai import ChatOpenAI
from langchain.prompts import (
PromptTemplate,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
ChatPromptTemplate,
)
 
dotenv.load_dotenv()
 
review_template_str = """Your job is to use patient
reviews to answer questions about their experience at
a hospital. Use the following context to answer questions.
Be as detailed as possible, but don't make up any information
that's not from the context. If you don't know an answer, say
you don't know.
 
{context}
"""
 
review_system_prompt = SystemMessagePromptTemplate(
prompt=PromptTemplate(
input_variables=["context"],
template=review_template_str,
)
)
 
review_human_prompt = HumanMessagePromptTemplate(
prompt=PromptTemplate(
input_variables=["question"],
template="{question}",
)
)
messages = [review_system_prompt, review_human_prompt]
 
review_prompt_template = ChatPromptTemplate(
input_variables=["context", "question"],
messages=messages,
)
 
chat_model = ChatOpenAI(model="gpt-3.5-turbo-0125", temperature=0)
 
review_chain = review_prompt_template | chat_model
 
 
 

1~42행은 이미 수행한 작업입니다. 즉, 환자 리뷰에 대한 질문에 답변하기 위한 review_prompt_template 프롬프트 템플릿을 정의하고 gpt-3.5-turbo-0125채팅 모델을 인스턴스화합니다. 44행에서는 review_prompt_template 및 chat_model를 연결하는 데 사용되는 | 기호를 review_chain 사용하여 정의합니다.

이렇게 하면 단일 함수 호출로 eview_prompt_template 및 chat_model을 통해 질문을 전달할 수 있는 review_chain 객체가 생성됩니다. 본질적으로 이는 review_chain의 모든 내부 세부 정보를 추상화하여 마치 채팅 모델인 것처럼 체인과 상호 작용할 수 있게 해줍니다.

업데이트된 chatbot.py를 저장한 후 기본 프로젝트 폴더에서 새 REPL 세션을 시작합니다. review_chain 사용 방법은 다음과 같습니다.

 
[ ]:
from langchain_intro.chatbot import review_chain
 
# import langchain_intro.chatbot
context = "I had a great stay!"
question = "Did anyone have a positive experience?"
 
review_chain.invoke({"context": context, "question": question})
 
 
 
이 블록에서는 이전과 마찬가지로 review_chain을 가져오고 context 및 question을 정의합니다. 그런 다음 키인 context 및 question을 함께 사전을 review_chan.invoke()에 전달 합니다. 이는 프롬프트 템플릿과 채팅 모델을 통하여 context 및 question을 답변을 생성하기 위해 전달합니다.
 
참고 : 체인을 호출할 때 채팅 모델이 지원하는 것과 동일한 방법을 모두 사용할 수 있습니다.
 
일반적으로 LCEL을 사용하면 파이프 기호 (|)를 사용하여 임의 길이의 체인을 생성할 수 있습니다. 예를 들어 모델의 응답 형식을 지정하려면 출력 구문 분석기를 체인에 추가할 수 있습니다.
 
[ ]:
# langchain_intro/chatbot.py
 
import dotenv
from langchain_openai import ChatOpenAI
from langchain.prompts import (
PromptTemplate,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
ChatPromptTemplate,
)
from langchain_core.output_parsers import StrOutputParser
 
# ...
 
output_parser = StrOutputParser()
 
review_chain = review_prompt_template | chat_model | output_parser
 
 
 

여기서는 모델의 응답을 더 읽기 쉽게 만드는 review_chain에 StrOutputParser() 인스턴스를 추가합니다. 새로운 REPL 세션을 시작하고 시도해 보세요.

 
[ ]:
from langchain_intro.chatbot import review_chain
 
context = "I had a great stay!"
question = "Did anyone have a positive experience?"
 
review_chain.invoke({"context": context, "question": question})
 
 
 

이 블록은 review_chain이 잘 포맷된 스트링을 AIMessage 보다 잘 되돌려주는 것을 볼 수 있는 것을 제외하고는 이전과 같다.

체인의 힘은 그것이 제공하는 창의성과 유연성에 있습니다. 복잡한 파이프라인을 연결하여 챗봇을 만들 수 있으며, 결국 단일 메서드 호출로 파이프라인을 실행하는 개체를 얻게 됩니다. 다음으로 벡터 데이터베이스에서 문서를 검색하기 위해 review_chai에서 개체를 레이어로 배치합니다.

 

검색 개체

 

review_chain의 목표는 리뷰를 통해 병원에서의 환자 경험에 대한 질문에 답하는 것입니다. 지금까지는 질문에 대한 컨텍스트로 리뷰를 수동으로 전달했습니다. 소수의 리뷰에서는 이것이 효과가 있을 수 있지만 확장성이 좋지는 않습니다. 게다가 모든 리뷰를 모델의 컨텍스트 창에 맞출 수 있더라도 질문에 답변할 때 올바른 리뷰를 사용할 것이라는 보장은 없습니다.

이를 극복하려면 리트리버가 필요합니다. 관련 문서를 검색하고 이를 언어 모델에 전달하여 질문에 답하는 프로세스를 검색 증강 생성(RAG) 이라고 합니다.

이 예에서는 ChromaDB 라는 벡터 데이터베이스에 모든 리뷰를 저장합니다. 이 데이터베이스 도구 및 주제에 익숙하지 않은 경우 계속하기 전에 ChromaDB를 사용한 임베딩 및 벡터 데이터베이스를 확인하세요 .

다음 명령을 사용하여 ChromaDB를 설치할 수 있습니다.

 
[ ]:
!python -m pip install chromadb==0.4.22
 
 
 

이를 설치하면 다음 코드를 사용하여 환자 리뷰가 포함된 ChromaDB 벡터 데이터베이스를 생성할 수 있습니다.

 
[ ]:
# langchain_intro/create_retriever.py
 
import dotenv
from langchain.document_loaders.csv_loader import CSVLoader
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddings
 
REVIEWS_CSV_PATH = "data/reviews.csv"
REVIEWS_CHROMA_PATH = "chroma_data"
 
dotenv.load_dotenv()
 
loader = CSVLoader(file_path=REVIEWS_CSV_PATH, source_column="review")
reviews = loader.load()
 
reviews_vector_db = Chroma.from_documents(
reviews, OpenAIEmbeddings(), persist_directory=REVIEWS_CHROMA_PATH
)
 
 
 

2~4행에서는 벡터 데이터베이스를 생성하는 데 필요한 종속성을 가져옵니다. 그런 다음 원시 리뷰 데이터가 저장되는 경로와 벡터 데이터베이스가 데이터를 저장할 경로인 REVIEWS_CSV_PATH 및 REVIEWS_CHROMA_PATH를 각각 정의합니다.

병원 시스템 데이터에 대한 개요는 나중에 살펴보겠지만 지금 당장 알아야 할 것은 환자 리뷰를 저장하는 reviews.csv 입니다. reviews.csv에 있는 review의 열은 환자의 리뷰가 포함된 문자열입니다.

11번째 줄과 12번째 줄에서는 LangChain의 CSVLoader를 사용하여 리뷰를 불러올 수 있습니다. 14~16행에서는 기본 OpenAI 임베딩 모델을 사용하여 reviews로 부터 ChromaDB 인스턴스를 생성하고 리뷰 임베딩을 REVIEWS_CHROMA_PATH에 저장합니다.

참고 : 실제로 큰 문서를 삽입하는 경우 텍스트 분할기를 사용해야 합니다. 텍스트 분할기는 임베딩 모델을 통해 문서를 실행하기 전에 문서를 더 작은 덩어리로 나눕니다. 임베딩 모델에는 고정된 크기의 컨텍스트 창이 있고 텍스트 크기가 커짐에 따라 텍스트를 정확하게 표현하는 임베딩 기능이 감소하기 때문에 이는 중요합니다.

이 예에서는 각 리뷰가 상대적으로 작기 때문에 각 리뷰를 개별적으로 삽입할 수 있습니다.

그런 다음 터미널을 열고 프로젝트 디렉터리에서 다음 명령을 실행합니다.

 
[ ]:
!python langchain_intro/create_retriever.py
 
 
 

실행하는 데는 1분 정도 밖에 걸리지 않으며, 이후 리뷰 임베딩에 대한 의미 검색을 시작할 수 있습니다.

 
[ ]:
import dotenv
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddings
 
REVIEWS_CHROMA_PATH = "chroma_data/"
 
dotenv.load_dotenv()
 
 
 
[ ]:
reviews_vector_db = Chroma(
persist_directory=REVIEWS_CHROMA_PATH,
embedding_function=OpenAIEmbeddings(),
)
 
question = """Has anyone complained about
communication with the hospital staff?"""
relevant_docs = reviews_vector_db.similarity_search(question, k=3)
 
relevant_docs[0].page_content
 
 
 
[ ]:
relevant_docs[1].page_content
 
 
 
[ ]:
relevant_docs[2].page_content
 
 
 

ChromaDB를 호출하는 데 필요한 종속성을 가져오고 ChromaDB 데이터를 REVIEWS_CHROMA_PATH에 저장할 경로를 특정합니다. 그런 다음 dotenv.load_dotenv()를 사용하여 환경 변수를 로드하고 벡터 데이터베이스를 가리키는 새 Chroma 인스턴스를 생성합니다. 벡터 데이터베이스에 연결할 때 임베딩 함수를 다시 지정해야 하는 방법에 유의하세요. 임베딩을 생성하는 데 사용한 것과 동일한 임베딩 함수인지 확인하세요.

다음으로 질문을 정의하고 reviews_vector_db위의 .similarity_search()를 호출하여 question 및 k=3를 전달합니다. 그러면 질문에 대한 임베딩이 생성되고 질문 임베딩과 가장 유사한 세 가지 리뷰 임베딩을 벡터 데이터베이스에서 검색합니다. 이 경우, 환자들이 의사소통에 대해 불만을 토로한 3개의 리뷰가 있는데, 이것이 바로 귀하가 요청한 것입니다!

마지막으로 해야 할 일은 관련 리뷰가 컨텍스트로 프롬프트에 전달되도록 리뷰 검색기를 review_chain에 추가하는 것입니다. 이를 수행하는 방법은 다음과 같습니다.

 
[ ]:
# langchain_intro/chatbot.py
 
import dotenv
from langchain_openai import ChatOpenAI
from langchain.prompts import (
PromptTemplate,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
ChatPromptTemplate,
)
from langchain_core.output_parsers import StrOutputParser
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddings
from langchain.schema.runnable import RunnablePassthrough
 
REVIEWS_CHROMA_PATH = "chroma_data/"
 
# ...
 
reviews_vector_db = Chroma(
persist_directory=REVIEWS_CHROMA_PATH,
embedding_function=OpenAIEmbeddings()
)
 
reviews_retriever = reviews_vector_db.as_retriever(k=10)
 
review_chain = (
{"context": reviews_retriever, "question": RunnablePassthrough()}
| review_prompt_template
| chat_model
| StrOutputParser()
)
 
 
 

이전과 마찬가지로 ChromaDB의 종속성을 가져오고 ChromaDB 데이터에 대한 경로를 지정하고 새 Chroma 객체를 인스턴스화합니다. 그런 다음 review_chain에 추가할 검색기 개체를 생성하기 위해 reviews_vector_db상의 .as_retriever()를 호출하여 reviews_retriever를 생성합니다. k=10을 지정했기 때문에 검색기는 사용자의 질문과 가장 유사한 10개의 리뷰를 가져옵니다.

그런 다음 context 및 question 키가 있는 사전을 review_chain의 앞에 추가합니다. 수동으로 context를 전달하는 대신 review_chain는 질문을 검색자에게 전달하여 관련 리뷰를 가져옵니다. question이 RunnablePassthrough 개체에 할당하면 질문이 변경 없이 체인의 다음 단계로 전달됩니다.

이제 리뷰를 통해 환자 경험에 대한 질문에 답변할 수 있는 완벽하게 작동하는 체인이 생겼습니다. 새로운 REPL 세션을 시작하고 시도해 보세요.

 
[ ]:
from langchain_intro.chatbot import review_chain
 
question = """Has anyone complained about
communication with the hospital staff?"""
review_chain.invoke(question)
 
 
 

보시다시피, 리뷰를 통해 환자 경험에 대한 검색 증강 답변을 얻기 위해 review_chain.invoke(question)를 호출할 뿐입니다. 나중에 다른 메타데이터와 함께 리뷰 임베딩을 Neo4j에 저장하여 이 체인을 개선할 것입니다.

이제 채팅 모델, 프롬프트, 체인 및 검색을 이해했으므로 마지막 LangChain 개념인 에이전트에 대해 알아볼 준비가 되었습니다.

 

Agents

 

지금까지 환자 리뷰를 사용하여 질문에 답하는 체인을 만들었습니다. 병원 대기 시간과 같은 다른 병원 데이터에 대한 질문에도 챗봇이 답변하도록 하려면 어떻게 해야 할까요? 이상적으로는 챗봇이 사용자의 쿼리에 따라 환자 리뷰에 대한 답변과 대기 시간 질문 사이를 원활하게 전환할 수 있습니다. 이를 수행하려면 다음 구성 요소가 필요합니다.

  1. 이미 생성한 환자 검토 체인
  2. 병원 대기시간 조회 기능
  3. LLM이 환자 경험에 대한 질문에 답변해야 하거나 대기 시간을 조회해야 하는 시기를 알 수 있는 방법

세 번째 기능을 수행하려면 에이전트가 필요 합니다.

에이전트는 실행할 일련의 작업을 결정하는 언어 모델입니다. 일련의 작업이 하드 코딩된 체인과 달리 에이전트는 언어 모델을 사용하여 수행할 작업과 순서를 결정합니다.

에이전트를 구축하기 전에 다음 함수를 생성하여 병원의 가짜 대기 시간을 생성하세요.

 
[ ]:
# langchain_intro/tools.py
 
import random
import time
 
def get_current_wait_time(hospital: str) -> int | str:
"""Dummy function to generate fake wait times"""
 
if hospital not in ["A", "B", "C", "D"]:
return f"Hospital {hospital} does not exist"
 
# Simulate API call delay
time.sleep(1)
 
return random.randint(0, 10000)
 
 
 

get_current_wait_time() 에서는 병원 이름을 전달하고 유효한지 확인한 다음 임의의 숫자를 생성하여 대기 시간을 시뮬레이션합니다. 실제로 이는 일종의 데이터베이스 쿼리 또는 API 호출이지만 이 데모에서는 동일한 목적으로 사용됩니다.

이제 질문에 따라서 get_current_wait_time()과 review_chain.invoke() 사이를 결정하는 에이전트를 만들 수 있습니다 .

 
[ ]:
# langchain_intro/chatbot.py
 
import dotenv
from langchain_openai import ChatOpenAI
from langchain.prompts import (
PromptTemplate,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
ChatPromptTemplate,
)
from langchain_core.output_parsers import StrOutputParser
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddings
from langchain.schema.runnable import RunnablePassthrough
from langchain.agents import (
create_openai_functions_agent,
Tool,
AgentExecutor,
)
from langchain import hub
from langchain_intro.tools import get_current_wait_time
 
# ...
 
tools = [
Tool(
name="Reviews",
func=review_chain.invoke,
description="""Useful when you need to answer questions
about patient reviews or experiences at the hospital.
Not useful for answering questions about specific visit
details such as payer, billing, treatment, diagnosis,
chief complaint, hospital, or physician information.
Pass the entire question as input to the tool. For instance,
if the question is "What do patients think about the triage system?",
the input should be "What do patients think about the triage system?"
""",
),
Tool(
name="Waits",
func=get_current_wait_time,
description="""Use when asked about current wait times
at a specific hospital. This tool can only get the current
wait time at a hospital and does not have any information about
aggregate or historical wait times. This tool returns wait times in
minutes. Do not pass the word "hospital" as input,
only the hospital name itself. For instance, if the question is
"What is the wait time at hospital A?", the input should be "A".
""",
),
]
 
hospital_agent_prompt = hub.pull("hwchase17/openai-functions-agent")
 
agent_chat_model = ChatOpenAI(
model="gpt-3.5-turbo-1106",
temperature=0,
)
 
hospital_agent = create_openai_functions_agent(
llm=agent_chat_model,
prompt=hospital_agent_prompt,
tools=tools,
)
 
hospital_agent_executor = AgentExecutor(
agent=hospital_agent,
tools=tools,
return_intermediate_steps=True,
verbose=True,
)
 
 
 

이 블록에서는 에이전트를 생성하는 데 필요한 몇 가지 추가 종속성을 가져옵니다. 그런 다음 Tool 개체 목록을 정의합니다. Tool은 에이전트가 기능과 상호작용하는 데 사용하는 인터페이스입니다. 예를 들어, 첫 번째 도구는 Reviews 이름이 지정 되고 질문이 description 기준을 충족하는 경우 review_chain.invoke()이 호출됩니다.

description이 도구를 호출해야 하는 시점에 대해 에이전트 지침을 어떻게 제공하는지 확인하세요. LLM이 올바른 입력을 통해 올바른 도구를 호출하도록 보장하려면 우수한 신속한 엔지니어링 기술이 가장 중요합니다.

tools에서 두 번째 Tool의 이름은 Waits이고 get_current_wait_time()을 호출합니다. 다시 말하지만, 에이전트는 Waits 도구를 사용할 시기와 description에 따라 전달할 입력이 무엇인지 알고 있어야 합니다.

다음으로 언어 모델로 gpt-3.5-turbo-1106를 사용하는 ChatOpenAI 객체를 초기화합니다. 그런 다음 create_openai_functions_agent()를 사용하여 OpenAI 함수 에이전트를 생성합니다. 이렇게 하면 입력을 함수에 전달하도록 설계된 에이전트가 생성됩니다. 함수 입력과 해당 값을 저장하는 유효한 JSON 개체를 반환하여 이를 수행합니다.

에이전트 런타임을 생성하려면 에이전트와 도구를 AgentExecutor에 전달합니다. return_intermediate_steps 및 verbose를 True로 설정하면 상담원의 사고 과정과 상담원이 호출하는 도구를 볼 수 있습니다.

새 REPL 세션을 시작하여 새 에이전트를 사용해 보세요.

 
[ ]:
from langchain_intro.chatbot import hospital_agent_executor
 
hospital_agent_executor.invoke(
{"input": "What is the current wait time at hospital C?"}
)
 
 
 
[ ]:
hospital_agent_executor.invoke(
{"input": "What have patients said about their comfort at the hospital?"}
)
 
 
 

먼저 agent를 가져온 다음 대기 시간에 대한 질문으로를 hospital_agent_executor.invoke()를 호출합니다. 출력에 표시된 대로 에이전트는 사용자가 대기 시간을 묻는 것을 알고 있으며 C 입력으로 Waits 도구에 전달됩니다. 그런 다음 Waits 도구는 get_current_wait_time(hospital="C")를 호출 하고 해당 대기 시간을 에이전트에 반환합니다. 그런 다음 에이전트는 이 대기 시간을 사용하여 최종 출력을 생성합니다.

상담원에게 환자 경험 리뷰에 대해 문의할 때 유사한 프로세스가 발생합니다. 단, 이번에는 상담원이 Reviews 도구를 호출하는 방법을 알고 있습니다. 환자가 입력으로 병원에서 편안하다고 말한 것은 무엇입니까? Reviews 도구는 전체 질문을 입력으로 사용하는 review_chain.invoke()를 실행하고 에이전트는 응답을 사용하여 출력을 생성합니다.

이것은 뛰어난 능력입니다. 에이전트는 코드를 작성할 수 있는 거의 모든 작업을 수행할 수 있는 기능을 언어 모델에 제공합니다. 에이전트와 함께 구축할 수 있는 놀랍고 잠재적으로 위험한 모든 챗봇을 상상해 보십시오.

이제 맞춤형 챗봇을 구축하는 데 필요한 모든 필수 LangChain 지식을 갖추었습니다. 다음으로, AI 엔지니어의 역할을 맡아 병원 시스템 챗봇을 구축하는 데 필요한 비즈니스 요구 사항과 데이터에 대해 알아봅니다.

지금까지 작성한 모든 코드는 LangChain의 기본 사항을 가르치기 위한 것이며 최종 챗봇에는 포함되지 않습니다. 챗봇 구축을 시작하는 2단계의 빈 디렉터리부터 시작해 보세요.

 

< 출처 : https://realpython.com/build-llm-rag-chatbot-with-langchain/>