langgraph / / 2024. 12. 1. 18:04

[langgraph] 그래프의 상태 업데이트를 스트리밍하는 방법

LangGraph 공식문서를 번역한 내용입니다. 필요한 경우 부연 설명을 추가하였고 이해하기 쉽게 예제를 일부 변경하였습니다. 문제가 되면 삭제하겠습니다.

https://langchain-ai.github.io/langgraph/how-tos/stream-updates/

LangGraph는 여러 스트리밍 모드를 지원한다. 주요 모드는 다음과 같다.

  • values: 이 스트리밍 모드는 그래프의 값을 스트리밍한다. 각 노드가 호출된 후 그래프의 전체 상태를 반환한다.
  • updates: 이 스트리밍 모드는 그래프의 업데이트를 스트리밍한다. 각 노드가 호출된 후 그래프 상태의 업데이트만 반환한다.

여기서는 stream_mode="updates"에 대해 설명한다.

준비

우선, 필요한 패키지를 설치하자.

pip install langgraph langchain-openai langchain-community

그래프 정의

여기서 간단한 ReAct 에이전트를 사용할 것이다.

import asyncio
from typing import Literal

from dotenv import load_dotenv
from langchain_core.tools import tool
from langchain_openai import ChatOpenAI
from langgraph.prebuilt import create_react_agent

load_dotenv()


@tool
def get_weather(city: Literal["서울", "부산"]):
    """Use this to get weather information."""
    if city == "서울":
        return "서울은 흐릴것 같아요"
    elif city == "부산":
        return "부산은 항상 맑아요"
    else:
        raise AssertionError("Unknown city")


tools = [get_weather]

model = ChatOpenAI(model_name="gpt-4o-mini", temperature=0)
graph = create_react_agent(model, tools)

Stream values

inputs = {"messages": [("human", "서울 날씨 어때?")]}


async def stream_async():
    async for chunk in graph.astream(inputs, stream_mode="updates"):
        for node, values in chunk.items():
            print(f"Receiving update from node: '{node}'")
            print(values)
            print("\n\n")


asyncio.run(stream_async())
Receiving update from node: 'agent'
{'messages': [AIMessage(content='', additional_kwargs={'tool_calls': [{'id': 'call_Oqq56G5HImU95DhOc3lMezzS', 'function': {'arguments': '{"city":"서울"}', 'name': 'get_weather'}, 'type': 'function'}], 'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 14, 'prompt_tokens': 57, 'total_tokens': 71, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_0705bf87c0', 'finish_reason': 'tool_calls', 'logprobs': None}, id='run-37cf32ca-f77d-4438-9c2b-952396139553-0', tool_calls=[{'name': 'get_weather', 'args': {'city': '서울'}, 'id': 'call_Oqq56G5HImU95DhOc3lMezzS', 'type': 'tool_call'}], usage_metadata={'input_tokens': 57, 'output_tokens': 14, 'total_tokens': 71, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}})]}



Receiving update from node: 'tools'
{'messages': [ToolMessage(content='서울은 흐릴것 같아요', name='get_weather', id='75cae380-7094-4de8-9b3c-0c529c0d5cb6', tool_call_id='call_Oqq56G5HImU95DhOc3lMezzS')]}



Receiving update from node: 'agent'
{'messages': [AIMessage(content='서울은 흐릴 것 같습니다. 추가로 궁금한 점이 있으면 말씀해 주세요!', additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 21, 'prompt_tokens': 86, 'total_tokens': 107, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_0705bf87c0', 'finish_reason': 'stop', 'logprobs': None}, id='run-bdcaa74e-0604-42b7-85b5-5feb6e5735d9-0', usage_metadata={'input_tokens': 86, 'output_tokens': 21, 'total_tokens': 107, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}})]}

LangGraph 참고 자료

반응형
  • 네이버 블로그 공유
  • 네이버 밴드 공유
  • 페이스북 공유
  • 카카오스토리 공유