阅读时间 7 分钟

OpenCode Go 模型订阅服务价格和用量规则解读

OpenCode Go 是 OpenCode 推出的低成本开源编程模型订阅服务,首月 5 USD、续费 10 USD/月,承诺以固定月费提供稳定的开源模型 API 访问。当前处于 Beta 测试阶段,模型托管在美国、欧盟和新加坡。这篇文章基于官方文档、GitHub Issues、Discord 社区等渠道的公开信息进行综合分析。

一、产品概况与核心数据

支持的模型列表

官方目前提供 10 款开源编程模型:

模型 提供商
GLM-5 / GLM-5.1 智谱 AI
Kimi K2.5 / K2.6 Moonshot AI
MiMo-V2-Pro / MiMo-V2-Omni 小米
MiniMax M2.5 / M2.7 MiniMax
Qwen3.5 Plus / Qwen3.6 Plus 阿里巴巴

注意事项:

  • 该列表为动态维护,"随着测试和添加新模型可能发生变化"
  • 部分模型使用 OpenAI 兼容格式,部分使用 Anthropic 格式,API 模式不完全统一
  • 每个 workspace 仅允许一名成员订阅 Go 服务

核心参数

项目 内容
定价 首月 5 USD,续费 10 USD/月
使用限制 12 USD/5h、30 USD/周、60 USD/月(美元价值)
阶段 Beta 测试
托管地 美国、欧盟、新加坡
支持模型数 10 款
来源: OpenCode Go 官方文档

二、计费规则与使用限制

"美元价值"的计算逻辑

OpenCode Go 的限制以"美元价值"定义,而非固定请求数。每次请求按该模型的实际 API 成本扣除额度。10 USD 订阅费换取的是 60 USD/月的"使用上限",不是固定次数。

不同模型在三重限制下能发出的请求数差异极大:

模型 每 5 小时 每周 每月
Qwen3.5 Plus 10,200 25,200 50,500
MiniMax M2.5 6,300 15,900 31,800
Qwen3.6 Plus 3,300 8,200 16,300
MiniMax M2.7 3,400 8,500 17,000
MiMo-V2-Omni 2,150 5,450 10,900
MiMo-V2-Pro 1,290 3,225 6,450
Kimi K2.5 1,850 4,630 9,250
GLM-5 1,150 2,880 5,750
Kimi K2.6 1,150 2,880 5,750
GLM-5.1 880 2,150 4,300

关键发现:Qwen3.5 Plus 最充裕,5 小时内能发约 1 万次请求;GLM-5.1 仅约 880 次,相差超过 11 倍。高频使用时,5 小时限制最先被触发。

注意,这是官方给出的"建议估计"(recommended estimates),每次实际请求的 tokens 数会直接影响真实消耗。

三层级限制如何运作

时间维度 限额 重置周期
5 小时 12 USD 5 小时
每周 30 USD 一周
每月 60 USD 一月

最容易触发的是 5 小时限制。以 Kimi K2.6 为例,每 5 小时仅能发 1,150 次调用,一个涉及 10 轮调用的复杂任务只能完成约 115 个。如果在一个 session 中高频使用(如自动化重构、大规模代码审查),可能很快触发此限制。

超出限制的处理

  • 在控制台启用"使用余额"选项,用 Zen 余额继续
  • 或降级使用免费模型
  • 也可等待限制重置
来源: OpenCode Go 使用限制

三、潜在问题与限制

以下问题与限制均与 OpenCode Go 订阅服务直接相关。

1. Beta 阶段固有风险

  • 订阅服务处于 Beta,功能和限制可能随时调整
  • 模型列表不固定,"随着测试和添加新模型可能发生变化"
  • 官方文档明确说明"该列表可能会发生变化",存在订阅后模型下架或调整的风险

2. 模型 API 兼容性问题

通过 OpenCode Go API 调用部分模型时存在格式兼容性问题:

  • Kimi K2.5/K2.6 工具调用错误:部分用户报告在调用 Kimi 模型时遇到 "reasoning_content is missing in assistant tool call message" 错误(GitHub #15197#23646
  • 当启用 thinking 功能时,工具调用容易失败
  • 相关 issue 数量较多,影响稳定性
  • 注意:这些问题主要出现在通过 OpenCode 平台调用 Kimi 模型的场景,直接调用原生 Kimi API 可能不存在此问题

3. 使用限制约束

限制类型 说明
工作空间限制 每个 workspace 仅一名成员可订阅 Go 服务
API 格式不一致 部分模型使用 OpenAI 兼容格式,部分使用 Anthropic 格式,统一配置时需要分别处理
隐私合规 数据需经海外第三方提供商(Moonshot、MiniMax、Zhipu 等)的服务器
服务稳定性 Beta 阶段偶有服务波动,某些时段模型可能暂时不可用
来源: GitHub Issues #15197, #23646

四、与 AI Agent 工具搭配的适配性评估

OpenClaw / Hermes Agent 等 AI Agent 框架通过 OpenCode Go API 调用模型时,核心关注两个维度:模型能力与额度是否匹配。

Agent 核心需求 vs 现实能力

Agent 核心需求 OpenCode Go 现状
稳定的工具调用 ⚠️ Kimi 存在兼容性问题;Qwen 相对稳定
多轮对话追踪 ✅ 支持,但长会话消耗快
长上下文处理 ⚠️ 缓存 token 消耗计入额度
高可用/低延迟 ⚠️ Beta 阶段,偶有服务波动

模型选择建议

推荐:Qwen3.5 Plus / Qwen3.6 Plus

  • 每月 16,000–50,500 次请求,量最足
  • 对中文支持更好
  • 工具调用相对 Kimi 更稳定,社区反馈中相关 bug 报告较少
  • 复杂多步骤任务能力略逊于顶级商业模型,但对日常代码任务足够

谨慎:Kimi K2.5/K2.6

  • 工具调用存在 reasoning_content 缺失 bug
  • GitHub 上有多起相关 issue(#15197, #20427, #20650)
  • 如果主要用于简单代码生成可用,但做 Agent 核心模型风险较高

额度够用吗?

以 Qwen3.5 Plus 为例,在 60 USD/月限额下:

任务类型 平均 API 调用次数 每月可完成任务数
简单问答 1 次 ~50,000 个
代码修改 2–3 次 ~15,000 个
复杂功能开发 5–10 次 ~5,000 个
大型项目分析 10–20 次 ~2,500 个

关键瓶颈:5 小时限制 (12 USD)。如果在一个 session 中高频使用(如自动化重构、大规模代码审查),可能很快触发。以 Kimi K2.6 为例,每 5 小时仅 1,150 次调用,一个复杂任务如果涉及 10 轮调用,只能完成约 115 个任务/5h。

结论

场景 是否足够
轻量 Agent 工作(日常代码辅助) ✅ 足够
中等频率 Agent 任务 ⚠️ 紧张,建议选 Qwen3.5 Plus
高频、长会话的 Agent 工作流 ❌ 不足够,容易触发 5h 限制

五、社区真实用户反馈

以下反馈主要来源于 GitHub Issues 和 Discord 社区的公开讨论。Reddit、Hacker News 等社区未能完整搜索。

与 Go 订阅直接相关的反馈

正面

  • 价格优势明显:多名用户认为 10 USD/月 能接触多款开源模型是"非常划算"的,特别是对于想尝试不同模型的开发者
  • 模型质量可用:Qwen3.5 Plus 和 MiniMax M2.5 在日常编程任务中表现稳定
  • 访问稳定性改善:相比直接调用各模型原生 API,OpenCode Go 的统一接口减少了配置复杂度

负面

  • Kimi 模型工具调用不稳定:多名用户报告在使用 Kimi K2.5/K2.6 时遇到 reasoning_content 错误,影响自动化工作流
  • 限制额度偏低:部分重度用户认为 60 USD/月 的限额对于高频使用场景不够,特别是使用高端模型时
  • Beta 不确定性:模型列表和限制额度可能随时调整

适合人群

推荐使用

  • 想以低成本尝试多款开源编程模型的个人开发者
  • 使用 Qwen3.5 Plus 进行日常轻量代码辅助
  • 需要稳定接口访问不想逐一配置各模型原生 API 的用户

不推荐

  • 需要高频、长会话的 AI Agent 工作流
  • 依赖 Kimi 模型做核心工具调用的场景
  • 对服务稳定性要求极高的生产环境

声明:本文信息基于 OpenCode 官方公开文档及 GitHub Issues 等渠道的公开资料整理。OpenCode Go 处于 Beta 阶段,部分信息可能随时间变化。