LangGraph 공식문서를 번역한 내용입니다. 필요한 경우 부연 설명을 추가하였고 이해하기 쉽게 예제를 일부 변경하였습니다. 문제가 되면 삭제하겠습니다.
https://langchain-ai.github.io/langgraph/how-tos/stream-updates/
LangGraph는 여러 스트리밍 모드를 지원한다. 주요 모드는 다음과 같다.
- values: 이 스트리밍 모드는 그래프의 값을 스트리밍한다. 각 노드가 호출된 후 그래프의 전체 상태를 반환한다.
- updates: 이 스트리밍 모드는 그래프의 업데이트를 스트리밍한다. 각 노드가 호출된 후 그래프 상태의 업데이트만 반환한다.
여기서는 stream_mode="updates"
에 대해 설명한다.
준비
우선, 필요한 패키지를 설치하자.
pip install langgraph langchain-openai langchain-community
그래프 정의
여기서 간단한 ReAct 에이전트를 사용할 것이다.
import asyncio
from typing import Literal
from dotenv import load_dotenv
from langchain_core.tools import tool
from langchain_openai import ChatOpenAI
from langgraph.prebuilt import create_react_agent
load_dotenv()
@tool
def get_weather(city: Literal["서울", "부산"]):
"""Use this to get weather information."""
if city == "서울":
return "서울은 흐릴것 같아요"
elif city == "부산":
return "부산은 항상 맑아요"
else:
raise AssertionError("Unknown city")
tools = [get_weather]
model = ChatOpenAI(model_name="gpt-4o-mini", temperature=0)
graph = create_react_agent(model, tools)
Stream values
inputs = {"messages": [("human", "서울 날씨 어때?")]}
async def stream_async():
async for chunk in graph.astream(inputs, stream_mode="updates"):
for node, values in chunk.items():
print(f"Receiving update from node: '{node}'")
print(values)
print("\n\n")
asyncio.run(stream_async())
Receiving update from node: 'agent'
{'messages': [AIMessage(content='', additional_kwargs={'tool_calls': [{'id': 'call_Oqq56G5HImU95DhOc3lMezzS', 'function': {'arguments': '{"city":"서울"}', 'name': 'get_weather'}, 'type': 'function'}], 'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 14, 'prompt_tokens': 57, 'total_tokens': 71, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_0705bf87c0', 'finish_reason': 'tool_calls', 'logprobs': None}, id='run-37cf32ca-f77d-4438-9c2b-952396139553-0', tool_calls=[{'name': 'get_weather', 'args': {'city': '서울'}, 'id': 'call_Oqq56G5HImU95DhOc3lMezzS', 'type': 'tool_call'}], usage_metadata={'input_tokens': 57, 'output_tokens': 14, 'total_tokens': 71, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}})]}
Receiving update from node: 'tools'
{'messages': [ToolMessage(content='서울은 흐릴것 같아요', name='get_weather', id='75cae380-7094-4de8-9b3c-0c529c0d5cb6', tool_call_id='call_Oqq56G5HImU95DhOc3lMezzS')]}
Receiving update from node: 'agent'
{'messages': [AIMessage(content='서울은 흐릴 것 같습니다. 추가로 궁금한 점이 있으면 말씀해 주세요!', additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 21, 'prompt_tokens': 86, 'total_tokens': 107, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_0705bf87c0', 'finish_reason': 'stop', 'logprobs': None}, id='run-bdcaa74e-0604-42b7-85b5-5feb6e5735d9-0', usage_metadata={'input_tokens': 86, 'output_tokens': 21, 'total_tokens': 107, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}})]}
LangGraph 참고 자료
- Controllability
- Persistence
- Memory
- Human-in-the-loop
- Streaming
- Tool calling
- Subgraphs
- State Management
- Other
- Prebuilt ReAct Agent
반응형