价格

7 个主流模型,最高省 84%

表中"输入 / 输出 / 缓存读 / 缓存写"都是你的实付单价(USD / 100 万 token)。 官方价 = Anthropic / OpenAI 直连价,仅作对比。

模型 输入 输出 缓存读 缓存写 官方价
Anthropic Claude Opus 4.7
Anthropic 当前最强模型,复杂推理、长上下文首选
$1.57 $7.87 $0.154 $1.97 $5 / $25 −69%
Anthropic Claude Opus 4.6
上一代 Opus,回答风格略有差异,部分场景更稳
$1.57 $7.87 $0.154 $1.97 $5 / $25 −69%
Anthropic Claude Sonnet 4.6
速度与质量平衡的中端档,日常 Agent / 编辑任务推荐
$0.95 $4.72 $0.095 $1.18 $3 / $15 −68%
Anthropic Claude Haiku 4.5
最便宜的 Claude,分类 / 摘要 / 高频请求场景
$0.32 $1.57 $0.032 $0.40 $1 / $5 −68%
OpenAI GPT-5.4
OpenAI 通用主力,性价比极高
$0.40 $2.37 $0.040 $0.49 $2.5 / $15 −84%
OpenAI GPT-5.3 Codex
代码任务专用调校版,配合编辑器助手最佳
$0.28 $2.20 $0.028 $0.34 $1.75 / $14 −84%
OpenAI GPT-5.5
OpenAI 顶配,复杂推理 / 长链条任务
$0.78 $4.72 $0.078 $0.78 $5 / $30 −84%

※ "输入 / 输出 / 缓存读 / 缓存写" 列均为你实付单价。"省" = 相对 Anthropic / OpenAI 直连官方价节省的百分比。 USD ↔ CNY 按 1 USD ≈ ¥7.20 折算。

关于"网络系数"

因为我们的供应来自美国订阅用户的闲置时间,所以每分钟可用配额会随着对方的作息变化。这就是为什么单价会带一个浮动系数:

  • 中国白天 9:00 ~ 18:00(美国深夜 21:00 ~ 次日 6:00):对方在睡觉,闲置最多 → 系数 0.8× ~ 1.0×,最便宜的时段
  • 中国晚 18:00 ~ 22:00(美国早高峰 6:00 ~ 10:00):对方陆续起床开工,供应紧一点 → 系数 ~1.2×
  • 极端高峰:理论上限 1.5×,但 99% 时段不会达到

换句话说:对成本敏感的批量任务跑白天,对响应延迟敏感的实时调用挑非高峰,能再省一档。 实时单价会显示在你的客户端调用响应里。