
自从 OpenAI 出来 gpt-5.4 模型后 Codex 的使用确实有了极大的提升,我个人调整配置后开发同一个需求对比使用 Claude Code + Claude Opus 4.6 还更快一点完成。
本来从 gpt-5.3-codex 的默认配置直接使用,但发现上下文一下就不够了,对于大一点的工程来说 特别难受。
后来查了下网上的资料,说 gpt-5.4 的 1M 上下文的能力要自己主动配置开启,晕。
下面放出我自己使用 Codex 的一些配置,算是抛砖引玉,不一定是最佳实践,有不同的欢迎指正。
打开 ~/.codex/config.toml 文件
project_doc_fallback_filenames = ["CLAUDE.md"] # agents.md 找不到,则找 claude.md ,和 Claude Code 使用同一份约束 model = "gpt-5.4" review_model = "gpt-5.4" # 默认 "gpt-5.2-codex" model_provider = "apibox" # 改成你自己的中转站名 model_reasoning_effort = "xhigh" # 思考强度超高 model_context_window = 1000000 # 模型上下文窗口大小,默认 1000000 ( 1M ) for gpt-5.4 model_auto_compact_token_limit = 500000 # for gpt-5.4 虽然是 1M ,但是有效注意力不够,不建议开的太高 [model_providers.apibox] name = "OpenAI" # 如果用的是中转站,建议把名字改成 OpenAI (注意大小写)命中缓存,省 token base_url = "apibox.cc/v1" # 改成你自己的中转站 API 地址哦 wire_api = "responses" requires_openai_auth = true [features] shell_tool = true # 启用 shell 工具。默认: true apply_patch_freeform = true # 通过自由格式编辑路径包含 apply_patch (影响默认工具集)。默认: false shell_snapshot = true # 启用 shell 快照功能。默认: false undo = true # 启用 undo 功能。默认: true unified_exec = true # 使用统一 PTY 执行工具 multi_agent = true steer = true prevent_idle_sleep = true child_agents_md = true memories = true # 开启记忆 sqlite = true # 可配可不配,随意 fast_mode = true # 必开,完全不同的体验,当然也会让 gpt-5.4 用量变 2 倍 [memories] # 强烈建议用新模型来总结 memories consolidation_model = "gpt-5.4" extract_model = "gpt-5.4" # generate_memories = true # 默认 true # use_memories = true # 默认 true ,表示把 memory_summary.md 注入 developer instructions max_raw_memories_for_cOnsolidation= 512 max_unused_days = 30 # 默认 30 max_rollout_age_days = 45 # 默认 30 # max_rollouts_per_startup = 16 # 默认 16 # min_rollout_idle_hours = 6 # 默认 6 小技巧:
model_auto_compact_token_limit 这个配置可以动态调整 当你的工程的会话上下文特别大的时候,你有不想开新的会话时。你可以先把这个配置改大,然后重新开启 VS Code 或者 cli ,这样就不会触发压缩了,可以继续聊下去。
更新下:
有些童鞋注册了我们的 APIBox 中转站,直接复制了我发的这个 Codex 优化配置,但是出现了报错,是因为 base_url 之前教程里面写的不对,现更新下这里:
base_url = "https://api.apibox.cc/v1" PS:APIBox V 站专属公测活动还在进行中,有需要的童鞋欢迎回帖领取: t/1207704
1 AAAmos 3 月 14 日 学习了 |
2 lizhenda 3 月 14 日 这个配置看起来更全一些,不改之前默认是 258K ,一下就触发压缩了,用的很蛋疼。奥特曼说 gpt 5.4 1M 上下文还以为是骗人的。感谢分享! |
3 songunity 3 月 14 日 问下,windows 下一直需要权限,需要怎么设置呢 |
5 gpt5 3 月 15 日 有点没明白,你不是说了“默认 1000000”,为啥还要特意设置呢? |
8 iorilu 3 月 15 日 不错, 我设置了, 回头写点代码看看效果 |
12 abcgoodwei 3 月 15 日 这样会导致 token 燃烧吗?这比默认配置消耗高不少吧 |
13 MrVito 3 月 15 日 我比较关心这个有效注意力,是否有相关的测试或者数据支持? |
14 apibox OP @abcgoodwei 当然,保底 2 倍消耗 [:dog] |
15 yimouleng 3 月 16 日 明天试试 |
16 Paracosm 3 月 16 日 我试了一下感觉 token 消耗的超级快 |
18 aker91 3 月 17 日 我中等强度使用 codex ,之前从未到达限额,按照这个配置,20 分钟不到触发了限额,不建议用 |
20 aker91 3 月 18 日 @apibox #19 我本来就一直用 fast mode ,这个配置中就是更改了上下文限制和 memories ,个人认为基本没用,现在有 subagent ,可以把网络搜索,命令行,代码搜索之类的分离出去,上下文基本是够的。memories 添乱的时候可能有用的时候还多 另外现在 team 试用账号额度充足,完全没必要用中转站 |
21 lizhenda 3 月 24 日 加上这个配置,gpt-5.4 的回答就不会嗦了,建议加上 # Communication style for supported models. Allowed values: none | friendly | pragmatic persOnality= "pragmatic" |
23 lancelot1016 3 月 28 日 优秀的帖子顶起来 |
24 apibox OP |