에이전트 실행
Runner 클래스를 통해 에이전트를 실행할 수 있습니다. 3가지 옵션이 있습니다:
Runner.run(): 비동기로 실행되며RunResult를 반환합니다Runner.run_sync(): 동기 메서드이며 내부적으로.run()을 실행합니다Runner.run_streamed(): 비동기로 실행되며RunResultStreaming을 반환합니다. 스트리밍 모드로 LLM을 호출하고, 수신되는 이벤트를 즉시 스트리밍합니다
from agents import Agent, Runner
async def main():
agent = Agent(name="Assistant", instructions="You are a helpful assistant")
result = await Runner.run(agent, "Write a haiku about recursion in programming.")
print(result.final_output)
# Code within the code,
# Functions calling themselves,
# Infinite loop's dance
자세한 내용은 결과 가이드에서 확인하세요.
Runner 수명 주기 및 구성
에이전트 루프
Runner의 run 메서드를 사용할 때 시작 에이전트와 입력을 전달합니다. 입력은 다음 중 하나일 수 있습니다:
- 문자열(사용자 메시지로 처리)
- OpenAI Responses API 형식의 입력 항목 목록
- 중단된 실행을 재개할 때의
RunState
그다음 runner는 루프를 실행합니다:
- 현재 입력으로 현재 에이전트에 대해 LLM을 호출합니다
- LLM이 출력을 생성합니다
- LLM이
final_output을 반환하면 루프를 종료하고 결과를 반환합니다 - LLM이 핸드오프를 수행하면 현재 에이전트와 입력을 업데이트하고 루프를 다시 실행합니다
- LLM이 도구 호출을 생성하면 해당 도구 호출을 실행하고 결과를 추가한 뒤 루프를 다시 실행합니다
- LLM이
- 전달된
max_turns를 초과하면MaxTurnsExceeded예외를 발생시킵니다
Note
LLM 출력이 "최종 출력"으로 간주되는 규칙은, 원하는 타입의 텍스트 출력을 생성하고 도구 호출이 없는 경우입니다
스트리밍
스트리밍을 사용하면 LLM 실행 중 스트리밍 이벤트도 함께 받을 수 있습니다. 스트림이 완료되면 RunResultStreaming에 실행에 대한 전체 정보(생성된 모든 새 출력 포함)가 담깁니다. 스트리밍 이벤트는 .stream_events()로 받을 수 있습니다. 자세한 내용은 스트리밍 가이드를 참고하세요.
Responses WebSocket 전송(선택적 헬퍼)
OpenAI Responses websocket 전송을 활성화하면 일반 Runner API를 계속 사용할 수 있습니다. 연결 재사용에는 websocket 세션 헬퍼를 권장하지만 필수는 아닙니다.
이는 websocket 전송의 Responses API이며, Realtime API가 아닙니다.
전송 선택 규칙 및 구체적 모델 객체/커스텀 provider 관련 주의사항은 모델을 참고하세요.
패턴 1: 세션 헬퍼 없음(동작함)
websocket 전송만 원하고 SDK가 공유 provider/session을 관리할 필요가 없을 때 사용합니다.
import asyncio
from agents import Agent, Runner, set_default_openai_responses_transport
async def main():
set_default_openai_responses_transport("websocket")
agent = Agent(name="Assistant", instructions="Be concise.")
result = Runner.run_streamed(agent, "Summarize recursion in one sentence.")
async for event in result.stream_events():
if event.type == "raw_response_event":
continue
print(event.type)
asyncio.run(main())
이 패턴은 단일 실행에는 괜찮습니다. Runner.run() / Runner.run_streamed()를 반복 호출하면 동일한 RunConfig / provider 인스턴스를 수동 재사용하지 않는 한 실행마다 재연결될 수 있습니다.
패턴 2: responses_websocket_session() 사용(다중 턴 재사용 권장)
여러 실행에서 websocket 지원 provider와 RunConfig를 공유하려면 responses_websocket_session()을 사용하세요(run_config를 상속하는 중첩 agent-as-tool 호출 포함).
import asyncio
from agents import Agent, responses_websocket_session
async def main():
agent = Agent(name="Assistant", instructions="Be concise.")
async with responses_websocket_session() as ws:
first = ws.run_streamed(agent, "Say hello in one short sentence.")
async for _event in first.stream_events():
pass
second = ws.run_streamed(
agent,
"Now say goodbye.",
previous_response_id=first.last_response_id,
)
async for _event in second.stream_events():
pass
asyncio.run(main())
컨텍스트를 종료하기 전에 스트리밍 결과 소비를 완료하세요. websocket 요청이 진행 중일 때 컨텍스트를 종료하면 공유 연결이 강제로 닫힐 수 있습니다.
실행 구성
run_config 매개변수로 에이전트 실행의 전역 설정 일부를 구성할 수 있습니다:
공통 실행 구성 카테고리
각 에이전트 정의를 변경하지 않고 단일 실행의 동작을 재정의하려면 RunConfig를 사용하세요.
모델, provider, 세션 기본값
model: 각 Agent의model과 무관하게 사용할 전역 LLM 모델을 설정할 수 있습니다model_provider: 모델 이름 조회용 model provider로, 기본값은 OpenAI입니다model_settings: 에이전트별 설정을 재정의합니다. 예를 들어 전역temperature또는top_p를 설정할 수 있습니다session_settings: 실행 중 히스토리 조회 시 세션 수준 기본값(예:SessionSettings(limit=...))을 재정의합니다session_input_callback: Sessions 사용 시 각 턴 전에 새 사용자 입력을 세션 히스토리와 병합하는 방식을 사용자 정의합니다. 콜백은 동기/비동기 모두 가능합니다
가드레일, 핸드오프, 모델 입력 형태 조정
input_guardrails,output_guardrails: 모든 실행에 포함할 입력/출력 가드레일 목록입니다handoff_input_filter: 핸드오프에 이미 필터가 없는 경우 모든 핸드오프에 적용할 전역 입력 필터입니다. 새 에이전트로 전송되는 입력을 수정할 수 있습니다. 자세한 내용은Handoff.input_filter문서를 참고하세요nest_handoff_history: 다음 에이전트 호출 전에 이전 대화 기록을 단일 assistant 메시지로 축약하는 옵트인 베타 기능입니다. 중첩 핸드오프 안정화 중이므로 기본값은 비활성화입니다. 활성화하려면True, 원문 트랜스크립트 전달은False를 사용하세요. Runner 메서드는RunConfig를 전달하지 않으면 자동 생성하므로, quickstart와 예제는 기본적으로 비활성 상태를 유지하며 명시적Handoff.input_filter콜백은 계속 우선 적용됩니다. 개별 핸드오프는Handoff.nest_handoff_history로 이 설정을 재정의할 수 있습니다handoff_history_mapper:nest_handoff_history를 사용할 때마다 정규화된 트랜스크립트(히스토리 + 핸드오프 항목)를 받아 다음 에이전트로 전달할 정확한 입력 항목 목록을 반환하는 선택적 callable입니다. 전체 핸드오프 필터를 작성하지 않고도 내장 요약을 대체할 수 있습니다call_model_input_filter: 모델 호출 직전에 완전히 준비된 모델 입력(instructions 및 입력 항목)을 수정하는 훅입니다. 예: 히스토리 축약, 시스템 프롬프트 주입reasoning_item_id_policy: runner가 이전 출력을 다음 턴 모델 입력으로 변환할 때 reasoning 항목 ID를 유지할지 생략할지 제어합니다
트레이싱 및 관측 가능성
tracing_disabled: 전체 실행의 트레이싱을 비활성화할 수 있습니다tracing: 실행별 트레이싱 API 키 등 trace 내보내기 설정을 재정의하려면TracingConfig를 전달합니다trace_include_sensitive_data: trace에 LLM/도구 호출 입력·출력 등 잠재적으로 민감한 데이터를 포함할지 설정합니다workflow_name,trace_id,group_id: 실행의 트레이싱 workflow 이름, trace ID, trace group ID를 설정합니다. 최소한workflow_name설정을 권장합니다. group ID는 여러 실행의 trace를 연결할 수 있는 선택 필드입니다trace_metadata: 모든 trace에 포함할 메타데이터입니다
도구 승인 및 도구 오류 동작
tool_error_formatter: 승인 플로우에서 도구 호출이 거부될 때 모델에 보이는 메시지를 사용자 정의합니다
중첩 핸드오프는 옵트인 베타로 제공됩니다. RunConfig(nest_handoff_history=True)를 전달하거나 handoff(..., nest_handoff_history=True)를 설정해 특정 핸드오프에서 축약 트랜스크립트 동작을 활성화하세요. 원문 트랜스크립트(기본값)를 유지하려면 플래그를 설정하지 않거나, 원하는 형태로 대화를 그대로 전달하는 handoff_input_filter(또는 handoff_history_mapper)를 제공하세요. 커스텀 mapper 작성 없이 생성 요약의 래퍼 텍스트를 바꾸려면 set_conversation_history_wrappers를 호출하세요(기본값 복원은 reset_conversation_history_wrappers).
실행 구성 세부사항
tool_error_formatter
승인 플로우에서 도구 호출이 거부될 때 모델로 반환되는 메시지를 사용자 정의하려면 tool_error_formatter를 사용하세요.
formatter는 다음을 포함한 ToolErrorFormatterArgs를 받습니다:
kind: 오류 카테고리. 현재는"approval_rejected"입니다tool_type: 도구 런타임("function","computer","shell","apply_patch","custom")tool_name: 도구 이름call_id: 도구 호출 IDdefault_message: SDK 기본 모델 표시 메시지run_context: 활성 실행 컨텍스트 래퍼
메시지를 대체할 문자열을 반환하거나, SDK 기본값을 쓰려면 None을 반환하세요.
from agents import Agent, RunConfig, Runner, ToolErrorFormatterArgs
def format_rejection(args: ToolErrorFormatterArgs[None]) -> str | None:
if args.kind == "approval_rejected":
return (
f"Tool call '{args.tool_name}' was rejected by a human reviewer. "
"Ask for confirmation or propose a safer alternative."
)
return None
agent = Agent(name="Assistant")
result = Runner.run_sync(
agent,
"Please delete the production database.",
run_config=RunConfig(tool_error_formatter=format_rejection),
)
reasoning_item_id_policy
reasoning_item_id_policy는 runner가 히스토리를 다음 턴으로 전달할 때 reasoning 항목을 다음 턴 모델 입력으로 변환하는 방식을 제어합니다(예: RunResult.to_input_list() 또는 세션 기반 실행 사용 시).
None또는"preserve"(기본값): reasoning 항목 ID 유지"omit": 생성된 다음 턴 입력에서 reasoning 항목 ID 제거
"omit"은 주로 Responses API 400 오류 유형에 대한 옵트인 완화책으로 사용합니다. 이는 reasoning 항목이 id와 함께 전송되었지만 필수 후속 항목이 없는 경우입니다(예: Item 'rs_...' of type 'reasoning' was provided without its required following item.).
이 문제는 SDK가 이전 출력(세션 지속성, 서버 관리 대화 delta, 스트리밍/비스트리밍 후속 턴, 재개 경로 포함)에서 후속 입력을 구성하는 다중 턴 에이전트 실행에서 발생할 수 있습니다. reasoning 항목 ID는 유지되지만 provider가 해당 ID가 대응 후속 항목과 짝지어져 있어야 한다고 요구할 때입니다.
reasoning_item_id_policy="omit"을 설정하면 reasoning 내용은 유지하면서 reasoning 항목 id를 제거하여 SDK가 생성한 후속 입력에서 해당 API 불변 조건 트리거를 피할 수 있습니다.
범위 참고:
- SDK가 후속 입력을 구성할 때 생성/전달하는 reasoning 항목에만 적용됩니다
- 사용자가 제공한 초기 입력 항목은 재작성하지 않습니다
call_model_input_filter는 이 정책 적용 후에도 의도적으로 reasoning ID를 다시 도입할 수 있습니다
상태 및 대화 관리
메모리 전략 선택
다음 턴으로 상태를 전달하는 일반적인 방법은 네 가지입니다:
| 전략 | 상태 저장 위치 | 적합한 경우 | 다음 턴에 전달할 내용 |
|---|---|---|---|
result.to_input_list() |
앱 메모리 | 작은 채팅 루프, 완전 수동 제어, 모든 provider | result.to_input_list() 목록 + 다음 사용자 메시지 |
session |
사용자 저장소 + SDK | 지속형 채팅 상태, 재개 가능한 실행, 커스텀 저장소 | 동일 session 인스턴스 또는 같은 저장소를 가리키는 다른 인스턴스 |
conversation_id |
OpenAI Conversations API | 워커/서비스 간 공유할 서버 측 이름 있는 대화 | 동일 conversation_id + 새 사용자 턴만 |
previous_response_id |
OpenAI Responses API | 대화 리소스를 만들지 않는 경량 서버 관리 연속 처리 | result.last_response_id + 새 사용자 턴만 |
result.to_input_list()와 session은 클라이언트 관리 방식입니다. conversation_id와 previous_response_id는 OpenAI 관리 방식이며 OpenAI Responses API 사용 시에만 적용됩니다. 대부분의 애플리케이션에서는 대화당 하나의 지속성 전략을 선택하세요. 클라이언트 관리 히스토리와 OpenAI 관리 상태를 혼합하면 두 계층을 의도적으로 조정하지 않는 한 컨텍스트가 중복될 수 있습니다.
Note
세션 지속성은 서버 관리 대화 설정(conversation_id, previous_response_id, auto_previous_response_id)과 동일 실행에서 함께 사용할 수 없습니다
호출당 하나의 접근 방식만 선택하세요
대화/채팅 스레드
어떤 run 메서드를 호출하더라도 하나 이상의 에이전트가 실행될 수 있으며(따라서 하나 이상의 LLM 호출), 채팅 대화에서는 하나의 논리적 턴을 나타냅니다. 예:
- 사용자 턴: 사용자가 텍스트 입력
- Runner 실행: 첫 번째 에이전트가 LLM 호출, 도구 실행, 두 번째 에이전트로 핸드오프, 두 번째 에이전트가 추가 도구 실행 후 출력 생성
에이전트 실행이 끝나면 사용자에게 무엇을 보여줄지 선택할 수 있습니다. 예를 들어 에이전트가 생성한 모든 새 항목을 보여주거나 최종 출력만 보여줄 수 있습니다. 이후 사용자가 후속 질문을 하면 run 메서드를 다시 호출할 수 있습니다.
수동 대화 관리
다음 턴 입력을 얻기 위해 RunResultBase.to_input_list() 메서드로 대화 히스토리를 수동 관리할 수 있습니다:
async def main():
agent = Agent(name="Assistant", instructions="Reply very concisely.")
thread_id = "thread_123" # Example thread ID
with trace(workflow_name="Conversation", group_id=thread_id):
# First turn
result = await Runner.run(agent, "What city is the Golden Gate Bridge in?")
print(result.final_output)
# San Francisco
# Second turn
new_input = result.to_input_list() + [{"role": "user", "content": "What state is it in?"}]
result = await Runner.run(agent, new_input)
print(result.final_output)
# California
세션을 통한 자동 대화 관리
더 간단한 방법으로, Sessions를 사용하면 .to_input_list()를 수동 호출하지 않고도 대화 히스토리를 자동 처리할 수 있습니다:
from agents import Agent, Runner, SQLiteSession
async def main():
agent = Agent(name="Assistant", instructions="Reply very concisely.")
# Create session instance
session = SQLiteSession("conversation_123")
thread_id = "thread_123" # Example thread ID
with trace(workflow_name="Conversation", group_id=thread_id):
# First turn
result = await Runner.run(agent, "What city is the Golden Gate Bridge in?", session=session)
print(result.final_output)
# San Francisco
# Second turn - agent automatically remembers previous context
result = await Runner.run(agent, "What state is it in?", session=session)
print(result.final_output)
# California
Sessions는 자동으로 다음을 수행합니다:
- 각 실행 전에 대화 히스토리 조회
- 각 실행 후 새 메시지 저장
- 서로 다른 세션 ID에 대해 분리된 대화 유지
자세한 내용은 Sessions 문서를 참고하세요.
서버 관리 대화
to_input_list() 또는 Sessions로 로컬 처리하는 대신 OpenAI 대화 상태 기능이 서버 측에서 대화 상태를 관리하도록 할 수도 있습니다. 이 방식은 과거 모든 메시지를 수동 재전송하지 않고도 대화 히스토리를 유지할 수 있게 해줍니다. 아래 서버 관리 방식 중 어느 것이든, 각 요청에는 새 턴 입력만 전달하고 저장된 ID를 재사용하세요. 자세한 내용은 OpenAI Conversation state 가이드를 참고하세요.
OpenAI는 턴 간 상태 추적을 위한 두 가지 방법을 제공합니다:
1. conversation_id 사용
먼저 OpenAI Conversations API로 대화를 생성한 다음 이후 모든 호출에서 해당 ID를 재사용합니다:
from agents import Agent, Runner
from openai import AsyncOpenAI
client = AsyncOpenAI()
async def main():
agent = Agent(name="Assistant", instructions="Reply very concisely.")
# Create a server-managed conversation
conversation = await client.conversations.create()
conv_id = conversation.id
while True:
user_input = input("You: ")
result = await Runner.run(agent, user_input, conversation_id=conv_id)
print(f"Assistant: {result.final_output}")
2. previous_response_id 사용
또 다른 옵션은 응답 체이닝으로, 각 턴이 이전 턴의 응답 ID에 명시적으로 연결됩니다.
from agents import Agent, Runner
async def main():
agent = Agent(name="Assistant", instructions="Reply very concisely.")
previous_response_id = None
while True:
user_input = input("You: ")
# Setting auto_previous_response_id=True enables response chaining automatically
# for the first turn, even when there's no actual previous response ID yet.
result = await Runner.run(
agent,
user_input,
previous_response_id=previous_response_id,
auto_previous_response_id=True,
)
previous_response_id = result.last_response_id
print(f"Assistant: {result.final_output}")
실행이 승인 대기로 일시 중지되고 RunState에서 재개하면,
SDK는 저장된 conversation_id / previous_response_id / auto_previous_response_id
설정을 유지하므로 재개된 턴이 동일한 서버 관리 대화에서 계속됩니다.
conversation_id와 previous_response_id는 상호 배타적입니다. 시스템 간 공유 가능한 이름 있는 대화 리소스가 필요하면 conversation_id를 사용하세요. 턴 간 가장 가벼운 Responses API 연속 처리 기본 요소가 필요하면 previous_response_id를 사용하세요.
Note
SDK는 conversation_locked 오류를 백오프로 자동 재시도합니다. 서버 관리
대화 실행에서는 재시도 전에 내부 대화 추적기 입력을 되감아
동일한 준비 항목을 깔끔하게 재전송할 수 있게 합니다
로컬 세션 기반 실행(conversation_id,
previous_response_id, auto_previous_response_id와 함께 사용할 수 없음)에서도 SDK는
재시도 후 중복 히스토리 항목을 줄이기 위해 최근 저장된 입력 항목을 최선의 노력으로
롤백합니다
이 호환성 재시도는 ModelSettings.retry를 구성하지 않아도 수행됩니다
모델 요청에 대한 더 넓은 옵트인 재시도 동작은 Runner 관리 재시도를 참고하세요
훅 및 사용자 지정
모델 호출 입력 필터
모델 호출 직전에 모델 입력을 편집하려면 call_model_input_filter를 사용하세요. 이 훅은 현재 에이전트, 컨텍스트, 결합된 입력 항목(세션 히스토리 포함 시 포함)을 받아 새 ModelInputData를 반환합니다.
반환값은 ModelInputData 객체여야 합니다. input 필드는 필수이며 입력 항목 목록이어야 합니다. 다른 형태를 반환하면 UserError가 발생합니다.
from agents import Agent, Runner, RunConfig
from agents.run import CallModelData, ModelInputData
def drop_old_messages(data: CallModelData[None]) -> ModelInputData:
# Keep only the last 5 items and preserve existing instructions.
trimmed = data.model_data.input[-5:]
return ModelInputData(input=trimmed, instructions=data.model_data.instructions)
agent = Agent(name="Assistant", instructions="Answer concisely.")
result = Runner.run_sync(
agent,
"Explain quines",
run_config=RunConfig(call_model_input_filter=drop_old_messages),
)
runner는 훅에 준비된 입력 목록의 복사본을 전달하므로, 호출자의 원본 목록을 제자리 변경하지 않고도 잘라내기, 교체, 재정렬이 가능합니다.
세션을 사용하는 경우 call_model_input_filter는 세션 히스토리가 이미 로드되어 현재 턴과 병합된 뒤 실행됩니다. 더 이른 병합 단계 자체를 사용자 정의하려면 session_input_callback을 사용하세요.
conversation_id, previous_response_id, auto_previous_response_id와 함께 OpenAI 서버 관리 대화 상태를 사용하는 경우, 이 훅은 다음 Responses API 호출용 준비 payload에서 실행됩니다. 이 payload는 이전 히스토리 전체 재생이 아니라 새 턴 delta만을 이미 나타낼 수 있습니다. 반환한 항목만 해당 서버 관리 연속 처리에서 전송 완료로 표시됩니다.
민감 데이터 마스킹, 긴 히스토리 축약, 추가 시스템 가이드 주입을 위해 실행별로 run_config에서 이 훅을 설정하세요.
오류 및 복구
오류 핸들러
모든 Runner 진입점은 오류 종류를 키로 하는 dict인 error_handlers를 받습니다. 현재 지원 키는 "max_turns"입니다. MaxTurnsExceeded를 발생시키는 대신 제어된 최종 출력을 반환하려면 사용하세요.
from agents import (
Agent,
RunErrorHandlerInput,
RunErrorHandlerResult,
Runner,
)
agent = Agent(name="Assistant", instructions="Be concise.")
def on_max_turns(_data: RunErrorHandlerInput[None]) -> RunErrorHandlerResult:
return RunErrorHandlerResult(
final_output="I couldn't finish within the turn limit. Please narrow the request.",
include_in_history=False,
)
result = Runner.run_sync(
agent,
"Analyze this long transcript",
max_turns=3,
error_handlers={"max_turns": on_max_turns},
)
print(result.final_output)
대체 출력을 대화 히스토리에 추가하지 않으려면 include_in_history=False를 설정하세요.
Durable execution 통합 및 휴먼인더루프 (HITL)
도구 승인 일시 중지/재개 패턴은 전용 휴먼인더루프 가이드부터 시작하세요. 아래 통합은 실행이 긴 대기, 재시도, 프로세스 재시작에 걸칠 수 있는 durable 오케스트레이션용입니다.
Temporal
Agents SDK Temporal 통합을 사용하면 휴먼인더루프 작업을 포함한 durable 장기 실행 워크플로를 실행할 수 있습니다. Temporal과 Agents SDK가 함께 장기 실행 작업을 완료하는 데모는 이 비디오에서 볼 수 있고, 문서는 여기에서 확인할 수 있습니다
Restate
Agents SDK Restate 통합을 사용하면 휴먼 승인, 핸드오프, 세션 관리를 포함한 경량 durable 에이전트를 사용할 수 있습니다. 이 통합은 Restate의 단일 바이너리 런타임을 의존성으로 필요로 하며, 에이전트를 프로세스/컨테이너 또는 서버리스 함수로 실행하는 것을 지원합니다 자세한 내용은 개요 또는 문서를 참고하세요
DBOS
Agents SDK DBOS 통합을 사용하면 장애 및 재시작 시에도 진행 상태를 보존하는 신뢰성 있는 에이전트를 실행할 수 있습니다. 장기 실행 에이전트, 휴먼인더루프 워크플로, 핸드오프를 지원합니다. 동기/비동기 메서드를 모두 지원합니다. 통합에는 SQLite 또는 Postgres 데이터베이스만 필요합니다. 자세한 내용은 통합 repo와 문서를 참고하세요
예외
SDK는 특정 경우 예외를 발생시킵니다. 전체 목록은 agents.exceptions에 있습니다. 개요는 다음과 같습니다:
AgentsException: SDK 내부에서 발생하는 모든 예외의 기본 클래스입니다. 다른 모든 구체적 예외가 파생되는 일반 타입 역할을 합니다MaxTurnsExceeded: 에이전트 실행이Runner.run,Runner.run_sync,Runner.run_streamed메서드에 전달된max_turns한도를 초과할 때 발생합니다. 지정된 상호작용 턴 수 내에 에이전트가 작업을 완료하지 못했음을 의미합니다ModelBehaviorError: 기반 모델(LLM)이 예상치 못하거나 유효하지 않은 출력을 생성할 때 발생합니다. 예:- 형식이 잘못된 JSON: 특히 특정
output_type이 정의된 경우, 도구 호출용 또는 직접 출력에서 모델이 잘못된 JSON 구조를 제공할 때 - 예상치 못한 도구 관련 실패: 모델이 예상된 방식으로 도구를 사용하지 못할 때
- 형식이 잘못된 JSON: 특히 특정
ToolTimeoutError: 함수 도구 호출이 구성된 타임아웃을 초과하고 도구가timeout_behavior="raise_exception"을 사용할 때 발생합니다UserError: SDK 사용 코드 작성자(사용자)가 SDK 사용 중 오류를 만들었을 때 발생합니다. 보통 잘못된 코드 구현, 유효하지 않은 구성, SDK API 오용으로 인해 발생합니다InputGuardrailTripwireTriggered,OutputGuardrailTripwireTriggered: 입력 가드레일 또는 출력 가드레일 조건이 각각 충족될 때 발생합니다. 입력 가드레일은 처리 전 들어오는 메시지를 검사하고, 출력 가드레일은 전달 전 에이전트의 최종 응답을 검사합니다