文章内容

2026/4/15 18:58:31,作 者: 黄兵

Codex 操作记录

最近订阅了 ChatGPT Business 套餐,可以使用 Codex 尽情的编写代码了,于是将 Codex 的使用记录记录下来,方便以后查看。

首先如果您访问 ChatGPT 网站被屏蔽,需要设置代理,具体可以查看这篇文章:Codex stream error: error sending request for url

安装 Codex 官方有详细的教程,在此不再赘述。

安装完成之后,我们切换到项目目录,使用如下命令:

cd /d "d:/code/project"

之后输入:

codex

启动 codex。

询问我们:

您是否信任此目录的内容?使用不受信任的内容会增加提示符注入的风险。
1. 是,继续
2. 否,退出
按回车键继续

选择 Yes, continue 

这样就可以开始与 Codex 开始对话了:



这里我说一下 /fast 参数:

可以。/fast 本质上是 Codex 里的“Fast mode”开关,不是一个单独模型,而是把 GPT-5.4 切到更快的服务档位。官方文档目前写得很明确:Fast mode 只支持 GPT-5.4;开启后,速度提升约 1.5 倍,但 credits 消耗按 2 倍计算。在 CLI 里可以直接用 /fast on/fast off/fast status 来开关或查看状态。(OpenAI开发者)

你可以把它理解成:
同一个模型,换一个更快但更贵的运行档位。
所以 /fast 和“换模型”是两回事。换模型通常用 /model;而 /fast 是在支持它的模型上,切换速度/成本权衡。官方也把 /model/fast 分开列为两个独立的 slash command。

1. /fast 能做什么

CLI 里常见有这三个用法:

/fast on
/fast off
/fast status
  • /fast on:给当前线程开启 Fast mode

  • /fast off:关闭

  • /fast status:查看当前线程是不是 Fast mode

官方文档强调的是 “current thread”,也就是它首先是一个当前对话线程级别的设置,不是全局强制生效的单次临时参数。

2. 它和 /model 的区别

很多人会混淆这两个:

  • /model:切模型,必要时还能调整 reasoning effort。官方举例里会在不同模型之间切,比如通用模型和更强推理模型。

  • /fast:不换模型,只是给 GPT-5.4 开启更快的模式。

所以一个很实用的判断方式是:

  • 你想要“更聪明/更便宜/不同能力” → 先看 /model

  • 你已经决定用 GPT-5.4,只是想“更快出结果” → 用 /fast 

3. 什么时候适合开 /fast

适合这些场景:

  • 高频小步迭代,比如“改一下这个函数”“再收紧一点类型”“再生成一个测试版本”

  • 你在 TUI 里密集来回对话,比较在意等待时间

  • 需求已经比较明确,不需要为了省 credits 而压到最低成本

因为它的核心 trade-off 很直接:更快,但更贵。官方数值就是 1.5x 速度 / 2x credits

4. 什么时候不建议开

不太适合这些情况:

  • 你正在做长会话、长上下文、重度改仓库,credits 消耗可能会更明显

  • 你更在意成本,而不是几十秒级的响应差异

  • 你当前并不是在用 GPT-5.4,因为 Fast mode 目前不支持别的模型 

换句话说,/fast 不是默认必开项。它更像“赶工按钮”或者“交互提速按钮”。

5. 它会不会一直生效

默认上,它先是当前线程设置;但官方也说明了,如果你希望持久化,Codex 会提示你保存,而且你也可以直接写到 config.toml 里。对应配置是:

service_tier = "fast"

[features]
fast_mode = true

这样可以把 Fast mode 设成默认行为,而不是每次进来都手动 /fast on

6. /fast 和 API key 的关系

这个点很容易忽略。官方说明是:

  • 用 ChatGPT 账号登录 的 Codex CLI / IDE / App,可以使用 Fast mode credits

  • 用 API key 时,Codex 走的是标准 API 定价,不能使用 Fast mode credits

所以如果你发现 /fast 看起来“不像生效”或者体验跟文档不一致,先检查你是不是用 ChatGPT 账号登录,而不是纯 API key。

7. 它和 Codex-Spark 不是一回事

官方专门把这两个分开讲:

  • Fast mode:是 GPT-5.4 的加速档位

  • Codex-Spark:是一个单独的更快但能力更弱的模型,而且有自己的可用性和使用限制。

所以不要把 /fast 理解成“切到 Spark”。不是。
一个是 给 GPT-5.4 提速,一个是 直接换成另一种模型

8. 实际使用建议

我会这样用:

  • 默认普通模式:做大改动、复杂重构、长时间协作时更稳妥

  • 临时开 /fast on:快速试几个 patch、反复修 lint/test、交互式调 prompt

  • 做完再 /fast off:避免后面长会话一直按 2x credits 跑 

一个很顺手的组合是:

/model
/fast on
/status

先确认模型,再开 fast,最后用 /status 看当前会话配置。官方文档里 /status 会显示会话配置,而 /fast status 会直接告诉你当前线程 fast 是否开启。

9. 一句话总结

/fast = 给 GPT-5.4 开启更快但更贵的运行模式
它不是换模型;它适合赶时间的交互式编码。当前官方参数是:速度约 1.5x,credits 2x;CLI 用法是 /fast on|off|status


其它相关推荐:

1、如何卸载Codex CLI

2、Codex stream error: error sending request for url

3、Codex 折腾

4、Weights & Biases (W&B) 工具介绍

5、EXPERIMENT_LOG.md CHANGELOG_RESEARCH.md 这两个文件区别

如何卸载Codex CLI
没有了
分享到:

发表评论

评论列表