国内主流 AI Coding Plan 选购指南:9 家平台速度与价格实测对比
自 2025 年下半年起,国内大模型厂商纷纷推出面向开发者的 Coding Plan 订阅套餐,用固定月费取代传统按 Token 计费的模式,大幅降低 AI 辅助编程的使用门槛。然而,各家平台在定价、额度、响应速度和模型支持上差异巨大,甚至存在计量单位不同、限额严格等隐藏条款,让不少开发者感到选择困难。
本文综合一篇小红书实测笔记、博客园的深度横评以及各平台官方文档,从价格与速度两个核心维度,对国内 9 家 Coding Plan 进行梳理,希望能为你的选购决策提供参考。
说明:文中实测数据部分来自第三方博主测试,仅供参考,购买前请以各平台官网最新政策为准。
一、Coding Plan 的计费模式与避坑要点
在对比具体套餐之前,有必要先厘清三家厂商采用的不同计量单位,这是最容易踩坑的地方:
- API 请求次数:阿里云百炼、火山方舟、无问芯穹采用此方式。一次用户提问(Prompt)后台可能触发 5~30 次模型调用,每次调用均计为 1 次 API 请求(据腾讯云官方文档)。
- Prompt 次数:智谱 GLM、MiniMax 采用此方式。1 次 Prompt 约等价于 1200~1600 次 API 请求。
- Token 计量:Kimi 于 2026 年 1 月 28 日切换为此模式,按输入输出 Token 计费,且缓存命中率会直接影响实际可用额度。
由于计量单位不同,单纯比较数字没有意义。例如百炼 Lite 的「每 5 小时 1200 次 API 请求」与智谱 Lite 的「每 5 小时 80 次 Prompt」在实际使用强度上可能相差无几。
二、价格与额度对比
2.1 四大厂平台
根据小红书笔记中的截图以及博客园的整理,阿里云百炼、火山引擎、腾讯云、京东 JoyCoder 的定价策略高度趋同:
| 平台 | Lite 套餐 | Pro 套餐 | 核心额度(Lite) | 支持模型 |
|---|---|---|---|---|
| 阿里云百炼 | ¥40(首月 ¥7.9) | ¥200 | 1200 次/5h,9000 次/周,18000 次/月 | Qwen3.5-Plus、Qwen3-Coder-Next、GLM-4.7、Kimi-K2.5 |
| 火山方舟 | ¥40(首月 ¥8.91) | ¥200 | 与百炼一致 | Doubao-Seed-Code、DeepSeek-V3.2、GLM-4.7、Kimi-K2.5 |
| 腾讯云 | ¥40(首月 ¥7.9) | ¥200 | 与百炼一致 | Hunyuan 系列、MiniMax-M2.5、Kimi-K2.5、GLM-5 |
| 京东 JoyCoder | ¥40 | ¥200 | 与百炼一致 | DeepSeek-V3.2、Kimi-K2.5、MiniMax-M2.7、GLM-5 |
小红书笔记中的观察:阿里云百炼的 Lite 档已停售(截至笔记发布时间),现在 200 元起步。腾讯云存在「7.9 元首购价」但很难抢到的情况。
2.2 新兴 AI 厂商
相比四大厂,新兴厂商的定价更加分散:
| 平台 | 入门价格 | 核心额度 | 计费方式 | 特点 |
|---|---|---|---|---|
| 无问芯穹 | ¥19.9/月 | 1000 次/5h,6000 次/周 | API 请求 | 月费最低,多模型聚合 |
| MiniMax | ¥29(首月 ¥9.9) | 40 Prompt/5h,无周限额 | Prompt | 入门价最低,无每周限额 |
| Kimi | ¥49(Andante) | 按 Token(限时 3 倍) | Token | 原生多模态,256K 长上下文 |
| 智谱 GLM | ¥49(2 月涨价后) | 80 Prompt/5h,400/周 | Prompt | 纯自研模型,20+ 工具适配 |
| 阶跃星辰 | 未测试 | — | — | 暂无实测数据 |
从性价比角度看:
- 预算敏感用户:无问芯穹(¥19.9)和 MiniMax(¥29)的入门门槛更低。
- 新用户试水:阿里云百炼首月 ¥7.9 是目前已知最低的尝鲜价。
三、速度实测:TTFT 与 TPS
以下速度数据来自一篇小红书实测笔记,测试条件为「白天 @ 10K tokens」,分别测量了首 Token 响应时间(TTFT)与TPS 生成速度。这些数据能直接反映编程时的「跟手」体验与代码生成效率。
3.1 首 Token 响应时间(TTFT)
| 平台 | 最快模型 | TTFT | 最慢模型 | TTFT |
|---|---|---|---|---|
| 智谱 GLM | glm-5-turbo | 1.43s | glm-5 | 7.82s |
| 腾讯 | hunyuan-2.0-thinking | 2.51s | kimi-k2.5 | 12.38s |
| MiniMax | m2.1 | 2.44s | m2.5 | 5.54s |
| 阿里 | glm-4.7 | 2.76s | qwen3-coder-next | 11.58s |
| 无问芯穹 | deepseek-v3.2-thinking | 3.26s | kimi-k2.5 | 7.76s |
| 火山 | doubao-seed-2.0-pro | 3.29s | glm-4.7 | 21.52s |
| 京东 | deepseek-v3.2 | ~5s | kimi-k2.5 | ~19s |
| Kimi | kimi-for-coding | 5.71s | — | — |
观察:智谱 GLM 的 glm-5-turbo 以 1.43s 的 TTFT 全场最快;火山和京东平台上部分模型的首字响应时间则明显偏高,分别达到 21.52s 和 19s,可能与平台调度策略或模型部署方式有关。
3.2 TPS 生成速度
| 平台 | 最快模型 | TPS | 最慢模型 | TPS |
|---|---|---|---|---|
| 智谱 GLM | glm-4.5-air | 103 | glm-5 | 23 |
| 火山 | doubao-seed-2.0-pro | 76 | kimi-k2.5 | 23 |
| 腾讯 | hunyuan-2.0-thinking | 76 | glm-5 | 30 |
| 阿里 | qwen3-coder-next | 67 | glm-4.7 | 41 |
| 无问芯穹 | minimax-m2.5 | 51 | kimi-k2.5 | 25 |
| MiniMax | m2.5 | 48 | m2.1 | 45 |
| 京东 | deepseek-v3.2 | 35 | glm-5 | 25 |
| Kimi | kimi-for-coding | 35 | — | — |
观察:智谱 glm-4.5-air 的 TPS 达到 103,显著领先其他平台;火山和腾讯的混元/豆包模型也能达到 76 TPS。京东和 Kimi 的 TPS 相对较低,均为 35 左右。
此外,MiniMax 官方宣称其 M2.5 模型速度可达 100+ TPS,这与小红书笔记中 MiniMax 平台测得的 48 TPS 存在差异,说明同一模型在不同平台上的部署性能可能并不相同。
四、各平台简评与选购建议
综合价格、额度与速度数据,以下是针对不同使用场景的选购建议:
新用户/想低成本试水
- 首选 阿里云百炼 Lite(首月 ¥7.9)。模型丰富,依托阿里云基础设施,稳定性较强。缺点是仅支持主账号、配置文档对新手不够友好。
预算敏感、轻度使用(月预算 ≤ 30 元)
- 首选 无问芯穹 Lite(¥19.9/月),额度接近百炼,价格仅一半,适合每周编程 2~3 次的轻度开发者。
- 次选 MiniMax Starter(¥29/月),无每周限额,额度仅按每 5 小时刷新,适合连续使用。
日常开发、中度使用(月预算 40~50 元)
- 首选 阿里云百炼 Lite(常规价 ¥40)或 火山方舟 Lite(常规价 ¥40)。两者额度透明、模型选择多。
- 不推荐智谱 GLM(涨价后 ¥49,性价比下滑)和 Kimi(¥49,工具适配少且额度受缓存影响大)。
重度开发、全栈或多模型切换
- 首选 阿里云百炼 Pro 或 火山方舟 Pro(¥200/月),额度为 Lite 的 5 倍左右,支持多模型自由切换。火山还支持 Auto 智能调度模式。
- 若对 GLM 自研模型有偏好,可考虑智谱 GLM,但需注意其每周限额和高峰期的额度抵扣倍数(高峰期 3 倍、非高峰 2 倍)。
追求极致响应速度
- 若首字响应和生成速度是首要诉求,智谱 GLM 的
glm-5-turbo(1.43s TTFT)和glm-4.5-air(103 TPS)表现最佳。
五、总结
国内 Coding Plan 市场正处于快速迭代期,价格战与模型战并行。选购时切忌只看表面价格,而应关注三个核心问题:
- 计量单位是什么? API 请求、Prompt 次数还是 Token?不同单位之间无法直接比大小。
- 限额机制如何? 是按 5 小时刷新、每周限额,还是每月封顶?这决定了你能否连续高强度使用。
- 速度是否跟手? TTFT 和 TPS 直接影响编程体验,同一模型在不同平台上的部署表现可能差异巨大。
最后提醒:各家套餐政策更新频繁(如智谱涨价、Kimi 切换 Token 计费、阿里云 Lite 档停售),建议在订阅前前往各平台官网确认最新详情。
Member discussion