Responses API 与 Chat API 对比
Responses API 与 Chat API 对比
零度API 同时支持 Chat Completions API 和全新的 Responses API,了解两者的区别有助于选择最适合的接口。
总体对比
| 维度 | Responses API | Chat Completions API |
|---|---|---|
| 定位 | 最新 Agent 型 API | 业界标准,广泛兼容 |
| 内置工具 | ✅ 网页搜索、文件搜索、代码解释器 | ❌ 需自行实现工具 |
| 上下文管理 | 内置对话 ID,自动维护 | 手动传入完整 messages |
| 稳定性 | 较新,持续演进 | 成熟稳定 |
| OpenAI 支持 | 未来主推 | 计划长期支持 |
Chat Completions API(现行标准)
适合大多数场景,尤其是:
- 已有 OpenAI 兼容代码的迁移
- 需要与多个 AI 提供商集成
- 对 API 稳定性要求高
from openai import OpenAI
client = OpenAI(base_url="https://api000.com/v1", api_key="sk-xxxxxxxxxxxxxxxx")
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "你好"}]
)
Responses API(新一代)
适合以下场景:
- 需要使用内置工具(联网搜索、文件检索等)
- 构建 AI Agent 或工作流
- 使用
o3-pro、codex-mini-latest等仅支持 Responses 格式的模型
from openai import OpenAI
client = OpenAI(base_url="https://api000.com/v1", api_key="sk-xxxxxxxxxxxxxxxx")
response = client.responses.create(
model="gpt-4.1",
input=[{"role": "user", "content": "搜索今天的 AI 新闻"}],
tools=[{"type": "web_search_preview"}]
)
哪些模型仅支持 Responses 格式?
部分 OpenAI 模型仅支持 Responses API 格式,例如:
o3-procodex-mini-latest
使用这些模型时,必须使用 POST /v1/responses 接口。
建议
- 新项目 且需要 Agent 能力 → 优先考虑 Responses API
- 迁移现有项目 或多平台兼容 → 继续使用 Chat Completions API
- 两种格式零度API 均完全支持,可按需选择