Skip to content

分组与计价规则

这一页说明 AI通道的计费模型、分组体系,以及如何根据使用场景选择合适的分组。

计费基本规则

什么是 Token

大模型把文本切成"token"作为处理单位。token 既不是字符也不是词,而是模型 tokenizer 切分出来的最小片段。一个经验值:

  • 英文:1 个 token 约等于 4 个字符,或者 0.75 个单词。
  • 中文:1 个汉字约等于 1.5 到 2 个 token。

举个例子,"你好,世界" 这五个字符大约会被切成 8 到 10 个 token。

计费公式

每一次 API 调用都会产生两类 token:输入(prompt)和输出(completion)。最终扣费金额是:

扣费 = (输入 token × 输入单价 + 输出 token × 输出单价) × 分组倍率
  • 输入/输出单价由上游模型决定,不同模型的单价不一样。
  • 分组倍率是我们在上游官方价基础上的统一系数,见下表。

举个具体例子:假设某次调用消耗了 1000 个输入 token、500 个输出 token,走的是 codex 分组,那么扣费 = GPT-5 官方价的 35% × 这次的 token 数。

分组说明

目前开放四个分组,分别对应四类使用场景:

分组 key可用模型倍率典型用户
ccmaxClaude Opus / Sonnet(专供 Claude Code 客户端,1M 上下文)2.5×Claude Code 重度用户
claudeClaude 全系(通用 API 调用,1M 上下文)0.7×通过自己的代码调用 Claude 的开发者
codexGPT 全系(含 gpt-5、gpt-5-codex 等)0.35×Codex CLI、OpenAI SDK 用户
geminiGemini 全系1.5×Gemini CLI、Google AI SDK 用户

怎么选分组

  • 你在用 Claude Code 客户端 → 选 ccmax。这个分组的 Claude 限额是按 Claude Code 客户端的使用模式调优的。
  • 你在自己的脚本/后端里用 Anthropic SDK 或 OpenAI SDK 调 Claude → 选 claude,倍率只有 0.7×,明显更省。
  • 你在用 Codex CLI 或其他 OpenAI 系工具调 GPT → 选 codex
  • 你在用 Gemini CLI 或 Google AI SDK → 选 gemini

一个 Key 只对应一个分组

每把 API Key 在创建时就绑定了分组,不能在运行时切换。如果你同时用多个工具,建议为每个工具分别建一把 Key。

模型定价参考

具体每一个模型的单价(每百万 token 多少元)会随上游调整,我们把最新报价放在后台的"可用模型"页面。登录 https://aitongdao.com 后在可用模型列表里可以实时看到。

控制成本的几个建议

1. 按任务选合适档位的模型

不是所有场景都需要旗舰模型:

  • 简单的分类、抽取、格式转换:用小模型就够。
  • 多轮复杂推理、代码生成、长文档分析:再上 Opus / GPT-5。

2. 优化请求本身

  • 缩短 system prompt:system 提示词每次请求都会重复计算,能精简就精简。
  • 使用流式输出:边生成边返回,用户体验更好,也可以在满足需求后提前中止,省掉后面的输出 token。
  • 控制 max_tokens:给输出长度设一个合理上限,避免模型啰嗦。

3. 监控消费

后台的日志钱包页可以看到每一次调用的 token 数和消费金额。建议定期打开看一眼,观察哪类请求吃 token 最多。

常见问题

Q:怎么判断自己该用哪个分组? 按你用的客户端工具来选。Claude Code 用 ccmax,Codex 用 codex,Gemini CLI 用 gemini,其他场景用 claude(或者 codex,看你调什么模型)。

Q:ccmax 和 claude 分组都是 1M 上下文,为什么倍率差这么多?ccmax 使用 Claude Max 账号池,稳定性更高,适合 Claude Code 客户端的高强度调用场景(大量多轮对话、工具调用)。claude 分组走逆向渠道,模型和上下文完全一致,价格低很多,日常编码足够用。

Q:能不能同时用多个分组? 可以,建立多把不同分组的 Key 即可,账户余额是统一的。

AI通道 · 让国内开发者直连全球 AI 模型