OpenAI 的 Codex CLI 是 2026 年最让人兴奋的开发者工具之一。它把 OpenAI 推理模型的能力直接搬进了终端——自主代码生成、多文件编辑、测试编写,一条命令搞定。用过的人都知道它有多提效。
但问题来了:要用 Codex CLI,你需要一个 OpenAI API 订阅。这意味着你得绑定月付计划、搞定国际信用卡支付——对国内开发者来说这本身就是个门槛——还得忍受速率限制在你写代码写到一半时把你卡住。如果 OpenAI API 出了故障?那你只能干等着,没有任何 fallback。
有没有可能用同样的 Codex CLI、同样的模型,但不用绑定订阅?Router One 就是这么干的。
Router One 改变了什么
Router One 是一个位于 Codex CLI 和模型供应商之间的网关。你不再把 Codex 直接指向 OpenAI 的 API,而是指向 Router One 的 OpenAI 兼容端点。对 Codex 来说,什么都没变——它发同样的请求,收同样的响应。但在背后,你获得了直连所没有的能力:
- 按量付费——没有订阅,没有月费承诺。你只为实际消耗的 token 付费。
- 支持国内支付——用微信支付或支付宝充值余额,不需要国际信用卡。
- 自动故障转移——如果某个上游供应商出问题,Router One 会透明地把请求路由到备选供应商。你的 Codex 会话不会中断。
- 预算管控——按 API key、按项目、按月设置硬性消费限额。不会收到意外账单。
- 实时用量追踪——每个请求、每个 token、每笔费用,都实时展示在你的 Dashboard 上。
这一切不需要对 Codex CLI 本身做任何修改。你只需要改两个环境变量。
工作原理
Codex CLI 从环境变量读取配置,具体来说是 OPENAI_BASE_URL 和 OPENAI_API_KEY。默认情况下它们指向 OpenAI 的 API。Router One 提供完全兼容 OpenAI 的端点,所以你只需要重定向这两个变量:
export OPENAI_BASE_URL=https://api.router.one/v1
export OPENAI_API_KEY=sk-your-router-one-key
配置就这些。Codex CLI 把请求发给 Router One,Router One 转发到最优的上游供应商,响应通过同样的路径返回。可用的模型——包括 o3、o4-mini 和 gpt-4.1——和你直连时一模一样。
详细的配置教程请看 Codex CLI 用例页面。
成本对比:订阅制 vs 按量付费
来算一笔账。
直接用 OpenAI API(订阅模式):
大多数使用 Codex CLI 的开发者每月消耗 50 万到 200 万 token,取决于使用强度。以 o4-mini(Codex 默认模型)的 OpenAI API 定价为例:
- 输入:$1.10 / 1M tokens
- 输出:$4.40 / 1M tokens
一个中等用量的开发者每月实际 token 花费大约 $5–15。但在 OpenAI 这边,你还得维护一个有余额的 API 账户,而且被锁定在他们的支付体系里——意味着需要国际信用卡,国内开发者充值流程繁琐。
Router One(按量付费):
- 同样的模型,同样的 token 定价(加上 Router One 的透明加价)
- 用微信支付或支付宝充值任意金额
- 没有最低余额要求,没有月付承诺
- 未使用的余额永久有效
对于每周跑几次 Codex 的轻度用户来说,差距很明显——你可能每月只花 $2–5,而不是维护一个订阅。对于重度用户,费用差不多,但你额外获得了故障转移、预算管控和用量可视化——这些直连 API 是没有的。
简单说:你永远不为没用到的容量付费,还免费获得了一套否则需要自建代理基础设施才能实现的运维能力。
2 分钟完成配置
配置时间比你读这段文字还短:
第一步——在 router.one 注册并创建 API key。
第二步——用你喜欢的支付方式充值(支持支付宝和微信支付)。
第三步——在 shell 中设置环境变量:
export OPENAI_BASE_URL=https://api.router.one/v1
export OPENAI_API_KEY=sk-your-router-one-key
第四步——照常运行 Codex:
codex "把这个函数重构成 async/await 写法"
要让配置持久化,把 export 语句加到 ~/.zshrc 或 ~/.bashrc 里。
验证方法:跑一条 Codex 命令后去 Router One Dashboard 看看——你应该能看到这条请求的模型、token 数和费用。
免费获得的进阶能力
除了基本的代理功能,通过 Router One 路由还给你带来了自己搭建需要几周时间的能力:
自动故障转移。 如果上游供应商返回错误或超时,Router One 会自动重试到备选供应商。你的 Codex 会话不会崩溃或卡住——请求只是多花一点时间完成重路由。对于可能运行数分钟的长时间 Codex 任务,这尤其关键。
预算护栏。 给 API key 设置每日或每月消费上限。到达限额时请求会被优雅拒绝,而不是悄悄累积费用。对于多个开发者共享同一账单的团队来说,这是刚需。
按项目追踪。 为不同项目创建独立的 API key,精确看到每个项目的花费。不用再猜是哪个项目吃掉了你的 API 额度。
实时可观测性。 每个 Codex 请求都会出现在 Router One Dashboard 上,附带完整详情——使用的模型、输入输出 token 数、延迟、费用和状态。日积月累,这些数据能揭示使用模式,帮你优化和 Codex 的协作方式。
模型灵活性。 虽然 Codex CLI 默认使用 o4-mini,但你可以用 Router One 上任何可用的模型,包括其他供应商的模型。想拿不同模型跑 Codex 做对比?基础设施已经支持,不需要额外配置。
完整的模型列表和定价请查看模型市场。
适合谁用
通过 Router One 使用 Codex 最适合这些场景:
- 国内开发者——无法方便地使用 OpenAI 的支付系统,或者直连 API 网络不稳定。
- 个人开发者——想要按量付费,不想绑定订阅或维护一个预充值的 API 账户。
- 团队用户——需要预算管控、按项目成本追踪,以及对团队中多个开发者使用 Codex 的集中式用量可视化。
- 被 API 故障坑过的人——想要自动故障转移,确保编码会话不被中断。
开始使用
在 router.one 注册,创建 API key,设置两个环境变量,就能开始用按量付费、支持国内支付、自动故障转移的 Codex CLI 了。
详细配置步骤请看 Codex CLI 用例页面。想了解 Router One 如何全面降低你的 LLM 成本,请阅读我们的降低 LLM API 成本指南。