外观
分组与计价规则
这一页说明 AI通道的计费模型、分组体系,以及如何根据使用场景选择合适的分组。
计费基本规则
什么是 Token
大模型把文本切成"token"作为处理单位。token 既不是字符也不是词,而是模型 tokenizer 切分出来的最小片段。一个经验值:
- 英文:1 个 token 约等于 4 个字符,或者 0.75 个单词。
- 中文:1 个汉字约等于 1.5 到 2 个 token。
举个例子,"你好,世界" 这五个字符大约会被切成 8 到 10 个 token。
计费公式
每一次 API 调用都会产生两类 token:输入(prompt)和输出(completion)。最终扣费金额是:
扣费 = (输入 token × 输入单价 + 输出 token × 输出单价) × 分组倍率- 输入/输出单价由上游模型决定,不同模型的单价不一样。
- 分组倍率是我们在上游官方价基础上的统一系数,见下表。
举个具体例子:假设某次调用消耗了 1000 个输入 token、500 个输出 token,走的是 codex 分组,那么扣费 = GPT-5 官方价的 35% × 这次的 token 数。
分组说明
目前开放四个分组,分别对应四类使用场景:
| 分组 key | 可用模型 | 倍率 | 典型用户 |
|---|---|---|---|
ccmax | Claude Opus / Sonnet(专供 Claude Code 客户端,1M 上下文) | 2.5× | Claude Code 重度用户 |
claude | Claude 全系(通用 API 调用,1M 上下文) | 0.7× | 通过自己的代码调用 Claude 的开发者 |
codex | GPT 全系(含 gpt-5、gpt-5-codex 等) | 0.35× | Codex CLI、OpenAI SDK 用户 |
gemini | Gemini 全系 | 1.5× | Gemini CLI、Google AI SDK 用户 |
怎么选分组
- 你在用 Claude Code 客户端 → 选
ccmax。这个分组的 Claude 限额是按 Claude Code 客户端的使用模式调优的。 - 你在自己的脚本/后端里用 Anthropic SDK 或 OpenAI SDK 调 Claude → 选
claude,倍率只有 0.7×,明显更省。 - 你在用 Codex CLI 或其他 OpenAI 系工具调 GPT → 选
codex。 - 你在用 Gemini CLI 或 Google AI SDK → 选
gemini。
一个 Key 只对应一个分组
每把 API Key 在创建时就绑定了分组,不能在运行时切换。如果你同时用多个工具,建议为每个工具分别建一把 Key。
模型定价参考
具体每一个模型的单价(每百万 token 多少元)会随上游调整,我们把最新报价放在后台的"可用模型"页面。登录 https://aitongdao.com 后在可用模型列表里可以实时看到。
控制成本的几个建议
1. 按任务选合适档位的模型
不是所有场景都需要旗舰模型:
- 简单的分类、抽取、格式转换:用小模型就够。
- 多轮复杂推理、代码生成、长文档分析:再上 Opus / GPT-5。
2. 优化请求本身
- 缩短 system prompt:system 提示词每次请求都会重复计算,能精简就精简。
- 使用流式输出:边生成边返回,用户体验更好,也可以在满足需求后提前中止,省掉后面的输出 token。
- 控制
max_tokens:给输出长度设一个合理上限,避免模型啰嗦。
3. 监控消费
后台的日志和钱包页可以看到每一次调用的 token 数和消费金额。建议定期打开看一眼,观察哪类请求吃 token 最多。
常见问题
Q:怎么判断自己该用哪个分组? 按你用的客户端工具来选。Claude Code 用 ccmax,Codex 用 codex,Gemini CLI 用 gemini,其他场景用 claude(或者 codex,看你调什么模型)。
Q:ccmax 和 claude 分组都是 1M 上下文,为什么倍率差这么多?ccmax 使用 Claude Max 账号池,稳定性更高,适合 Claude Code 客户端的高强度调用场景(大量多轮对话、工具调用)。claude 分组走逆向渠道,模型和上下文完全一致,价格低很多,日常编码足够用。
Q:能不能同时用多个分组? 可以,建立多把不同分组的 Key 即可,账户余额是统一的。