OpenCode Go 模型订阅服务价格和用量规则解读
OpenCode Go 是 OpenCode 推出的低成本开源编程模型订阅服务,首月 5 USD、续费 10 USD/月,承诺以固定月费提供稳定的开源模型 API 访问。当前处于 Beta 测试阶段,模型托管在美国、欧盟和新加坡。这篇文章基于官方文档、GitHub Issues、Discord 社区等渠道的公开信息进行综合分析。
一、产品概况与核心数据
支持的模型列表
官方目前提供 10 款开源编程模型:
| 模型 | 提供商 |
|---|---|
| GLM-5 / GLM-5.1 | 智谱 AI |
| Kimi K2.5 / K2.6 | Moonshot AI |
| MiMo-V2-Pro / MiMo-V2-Omni | 小米 |
| MiniMax M2.5 / M2.7 | MiniMax |
| Qwen3.5 Plus / Qwen3.6 Plus | 阿里巴巴 |
注意事项:
- 该列表为动态维护,"随着测试和添加新模型可能发生变化"
- 部分模型使用 OpenAI 兼容格式,部分使用 Anthropic 格式,API 模式不完全统一
- 每个 workspace 仅允许一名成员订阅 Go 服务
核心参数
| 项目 | 内容 |
|---|---|
| 定价 | 首月 5 USD,续费 10 USD/月 |
| 使用限制 | 12 USD/5h、30 USD/周、60 USD/月(美元价值) |
| 阶段 | Beta 测试 |
| 托管地 | 美国、欧盟、新加坡 |
| 支持模型数 | 10 款 |
来源: OpenCode Go 官方文档
二、计费规则与使用限制
"美元价值"的计算逻辑
OpenCode Go 的限制以"美元价值"定义,而非固定请求数。每次请求按该模型的实际 API 成本扣除额度。10 USD 订阅费换取的是 60 USD/月的"使用上限",不是固定次数。
不同模型在三重限制下能发出的请求数差异极大:
| 模型 | 每 5 小时 | 每周 | 每月 |
|---|---|---|---|
| Qwen3.5 Plus | 10,200 | 25,200 | 50,500 |
| MiniMax M2.5 | 6,300 | 15,900 | 31,800 |
| Qwen3.6 Plus | 3,300 | 8,200 | 16,300 |
| MiniMax M2.7 | 3,400 | 8,500 | 17,000 |
| MiMo-V2-Omni | 2,150 | 5,450 | 10,900 |
| MiMo-V2-Pro | 1,290 | 3,225 | 6,450 |
| Kimi K2.5 | 1,850 | 4,630 | 9,250 |
| GLM-5 | 1,150 | 2,880 | 5,750 |
| Kimi K2.6 | 1,150 | 2,880 | 5,750 |
| GLM-5.1 | 880 | 2,150 | 4,300 |
关键发现:Qwen3.5 Plus 最充裕,5 小时内能发约 1 万次请求;GLM-5.1 仅约 880 次,相差超过 11 倍。高频使用时,5 小时限制最先被触发。
注意,这是官方给出的"建议估计"(recommended estimates),每次实际请求的 tokens 数会直接影响真实消耗。
三层级限制如何运作
| 时间维度 | 限额 | 重置周期 |
|---|---|---|
| 5 小时 | 12 USD | 5 小时 |
| 每周 | 30 USD | 一周 |
| 每月 | 60 USD | 一月 |
最容易触发的是 5 小时限制。以 Kimi K2.6 为例,每 5 小时仅能发 1,150 次调用,一个涉及 10 轮调用的复杂任务只能完成约 115 个。如果在一个 session 中高频使用(如自动化重构、大规模代码审查),可能很快触发此限制。
超出限制的处理
- 在控制台启用"使用余额"选项,用 Zen 余额继续
- 或降级使用免费模型
- 也可等待限制重置
来源: OpenCode Go 使用限制
三、潜在问题与限制
以下问题与限制均与 OpenCode Go 订阅服务直接相关。
1. Beta 阶段固有风险
- 订阅服务处于 Beta,功能和限制可能随时调整
- 模型列表不固定,"随着测试和添加新模型可能发生变化"
- 官方文档明确说明"该列表可能会发生变化",存在订阅后模型下架或调整的风险
2. 模型 API 兼容性问题
通过 OpenCode Go API 调用部分模型时存在格式兼容性问题:
- Kimi K2.5/K2.6 工具调用错误:部分用户报告在调用 Kimi 模型时遇到
"reasoning_content is missing in assistant tool call message"错误(GitHub #15197、#23646) - 当启用 thinking 功能时,工具调用容易失败
- 相关 issue 数量较多,影响稳定性
- 注意:这些问题主要出现在通过 OpenCode 平台调用 Kimi 模型的场景,直接调用原生 Kimi API 可能不存在此问题
3. 使用限制约束
| 限制类型 | 说明 |
|---|---|
| 工作空间限制 | 每个 workspace 仅一名成员可订阅 Go 服务 |
| API 格式不一致 | 部分模型使用 OpenAI 兼容格式,部分使用 Anthropic 格式,统一配置时需要分别处理 |
| 隐私合规 | 数据需经海外第三方提供商(Moonshot、MiniMax、Zhipu 等)的服务器 |
| 服务稳定性 | Beta 阶段偶有服务波动,某些时段模型可能暂时不可用 |
来源: GitHub Issues #15197, #23646
四、与 AI Agent 工具搭配的适配性评估
OpenClaw / Hermes Agent 等 AI Agent 框架通过 OpenCode Go API 调用模型时,核心关注两个维度:模型能力与额度是否匹配。
Agent 核心需求 vs 现实能力
| Agent 核心需求 | OpenCode Go 现状 |
|---|---|
| 稳定的工具调用 | ⚠️ Kimi 存在兼容性问题;Qwen 相对稳定 |
| 多轮对话追踪 | ✅ 支持,但长会话消耗快 |
| 长上下文处理 | ⚠️ 缓存 token 消耗计入额度 |
| 高可用/低延迟 | ⚠️ Beta 阶段,偶有服务波动 |
模型选择建议
推荐:Qwen3.5 Plus / Qwen3.6 Plus
- 每月 16,000–50,500 次请求,量最足
- 对中文支持更好
- 工具调用相对 Kimi 更稳定,社区反馈中相关 bug 报告较少
- 复杂多步骤任务能力略逊于顶级商业模型,但对日常代码任务足够
谨慎:Kimi K2.5/K2.6
- 工具调用存在 reasoning_content 缺失 bug
- GitHub 上有多起相关 issue(#15197, #20427, #20650)
- 如果主要用于简单代码生成可用,但做 Agent 核心模型风险较高
额度够用吗?
以 Qwen3.5 Plus 为例,在 60 USD/月限额下:
| 任务类型 | 平均 API 调用次数 | 每月可完成任务数 |
|---|---|---|
| 简单问答 | 1 次 | ~50,000 个 |
| 代码修改 | 2–3 次 | ~15,000 个 |
| 复杂功能开发 | 5–10 次 | ~5,000 个 |
| 大型项目分析 | 10–20 次 | ~2,500 个 |
关键瓶颈:5 小时限制 (12 USD)。如果在一个 session 中高频使用(如自动化重构、大规模代码审查),可能很快触发。以 Kimi K2.6 为例,每 5 小时仅 1,150 次调用,一个复杂任务如果涉及 10 轮调用,只能完成约 115 个任务/5h。
结论
| 场景 | 是否足够 |
|---|---|
| 轻量 Agent 工作(日常代码辅助) | ✅ 足够 |
| 中等频率 Agent 任务 | ⚠️ 紧张,建议选 Qwen3.5 Plus |
| 高频、长会话的 Agent 工作流 | ❌ 不足够,容易触发 5h 限制 |
五、社区真实用户反馈
以下反馈主要来源于 GitHub Issues 和 Discord 社区的公开讨论。Reddit、Hacker News 等社区未能完整搜索。
与 Go 订阅直接相关的反馈
正面:
- 价格优势明显:多名用户认为 10 USD/月 能接触多款开源模型是"非常划算"的,特别是对于想尝试不同模型的开发者
- 模型质量可用:Qwen3.5 Plus 和 MiniMax M2.5 在日常编程任务中表现稳定
- 访问稳定性改善:相比直接调用各模型原生 API,OpenCode Go 的统一接口减少了配置复杂度
负面:
- Kimi 模型工具调用不稳定:多名用户报告在使用 Kimi K2.5/K2.6 时遇到 reasoning_content 错误,影响自动化工作流
- 限制额度偏低:部分重度用户认为 60 USD/月 的限额对于高频使用场景不够,特别是使用高端模型时
- Beta 不确定性:模型列表和限制额度可能随时调整
适合人群
推荐使用:
- 想以低成本尝试多款开源编程模型的个人开发者
- 使用 Qwen3.5 Plus 进行日常轻量代码辅助
- 需要稳定接口访问不想逐一配置各模型原生 API 的用户
不推荐:
- 需要高频、长会话的 AI Agent 工作流
- 依赖 Kimi 模型做核心工具调用的场景
- 对服务稳定性要求极高的生产环境
声明:本文信息基于 OpenCode 官方公开文档及 GitHub Issues 等渠道的公开资料整理。OpenCode Go 处于 Beta 阶段,部分信息可能随时间变化。
Member discussion