GPT‑5 Codexがリリース

OpenAIが2025年9月15日にGPT‑5 Codexを発表しました。GPT‑5 CodexはGPT‑5を土台にして、エージェントのコーディング能力に適した学習と強化が加えられたモデルです。長時間の自律的な作業に特に強みがあります。

現在はChatGPTの有料プランで利用可能で、Codex CLIやCodex Cloudの標準モデルとしても採用されています。API経由での提供はまだ始まっていませんが、近く提供される見込みです。

OpenAIはgpt-5以前にCodex Cloudで使えるo3ベースのcodex‑1とCodex CLIで使えるo4-miniベースのcodex-mini-latestというモデルをリリースしています[1]。これがGPT‑5 Codexというバージョンに全て置き換わった形です。

[1]: https://openai.com/ja-JP/index/introducing-codex/

この記事では、筆者はChatGPT Plusの環境でCodex CLIとCodex Cloudを試し、ベンチマークやコードレビューでの挙動を検証しました。Claude Code+Opus 4.1との比較も交えつつ、特徴と導入判断の観点をまとめます。

GPT‑5 Codexの改善点

大規模リファクタリング性能

まず、大規模なコードベースを理解して編集する能力が向上しました。複数ファイルにまたがる変更を伴うリファクタリングで、GPT‑5と比べて正解率が向上したと説明されています(数値で言うと%GPT‑5: 33.9%に対してGPT‑5 Codex: 51.3)。

OpenAIが例に挙げるのは、Giteaの2022年のプルリクエストです。このような実在のコミットを、Codex CLIのようなエージェントへ指示するだけでどこまで再現できるか、という観点で検証されていると理解しています。

加えて、Latent SpaceのGreg Brockmanへのインタビューでは、現実のOSSでメンテナーの協力を得て、モデル同士の成果物をブラインドで比較する「New Evals」という評価の構想も紹介されています。コード生成評価のデファクトであるSWE‑benchやAider polyglotは生成するコードサイズも小さく、実際のエージェント型コーディングの能力を正確に測れていません。現場の作業に近いコンテキストで比較することが重要だいうのは筆者も以前から主張していることです。

How GPT5 + Codex took over Agentic Coding — ft. Greg Brockman, OpenAI
Belated catchup on our podcast with Greg Brockman, + latest takes on the new GPT-5-Codex model

コードレビュー精度の向上

次に、コードレビューの精度です。GPT‑5 Codexはレビューに特化した追加学習を受けており、コードの依存関係をたどったり、テストの実行を通じてレビューの正確さを確認したりできます。OpenAI内部による比較では、レビュー時の誤った指摘が減り、重要な指摘の割合が増えたという説明が付されています(誤指摘率13.7%→4.4%、重要指摘率39.4%→52.4%)。

この件と関連して、Codex CLIには「/review」というコマンドも追加され、レビュー指示のショートカットができました。私の検証環境では、Opus 4.1では気づけなかった潜在的な問題を、GPT‑5 Codexは指摘することがあり(後述)、実務の補助としての期待値が上がったと感じています。

Codex Cloudにもこのコードレビュー機能が組み込まれており、設定画面から有効化できます。プルリクエストで @codex をメンションして、実行することも可能です。

Code Review
Use Codex to review code directly within GitHub.

GPT‑5 Codexの検証

Codex CLIのタスク実行時間の上乗せ

モデル構成平均実行時間 (秒)備考
codex + gpt‑5‑codex (high)204.5s300秒タイムアウトで失敗あり
codex + gpt‑5‑codex (high) +「300秒以内に完了」プロンプト114.2sプロンプト制約で短縮
codex + gpt‑5 (high)156.7s安定して完走

筆者が運用しているエージェント向けベンチマーク「ts‑bench」でも挙動を確かめました。これはTypeScriptコード演習25問を使って、エージェントとモデルの組み合わせごとに正解率と実行時間を測る仕組みです。GPT‑5単体でも満点に到達しうる手応えはあるのでスコアの上限値ではなく実行時間に注目しました。

最初に、GPT‑5 CodexとCodex CLIを組み合わせた場合、GPT‑5と比較し、実行時間が延びてタイムアウト300秒に至ることが多くありました。タイムアウトを延長すると正しく成功するので、GPT‑5 Codexに変更したことで作業時間の上乗せが起きていると考えられます。

そこで、プロンプトに「タスクを300秒以内に終わらせてください」と補足すると、実行時間が短縮されました。OpenAIの説明どうり、思考トークンの量やツール呼び出し回数をモデル自身が見積もる傾向があるため、作業調整の手がかりになるようです。

少なくともts‑benchの問題の難易度では、この時間短縮によって正解率が下がることはありませんでした。ただし、プロンプトで都度調整するより、reasoning_effortの設定を下げる、あるいはモデル自体を軽量な系列に切り替えるといった手段のほうが、運用上の優先度は高いと考えます。

Codex Cloudのタスク時間上限

Codex Cloudのタスク時間についても触れておきます。Cloud側ではモデルを選択できず、コード編集やコードレビューはGPT‑5 Codexが標準で使われます。OpenAIはGPT‑5 Codexについて「最大で7時間以上の独立実行が可能」と説明していますが、私のChatGPT Plusのアカウントでは、1時間を超えるような規模のタスクは実行が拒否されました。これは過去記事でふれたts‑benchのデータソースである演習問題を101問に拡張したタスクです。実際にDevinは1時間以上かけてタスクを実施します

そこで実験として、プロンプトベースで「作業を分割してください」と再提案すると、Codexの判断で問題を3つ選出し、およそ8分間は動作しました。さらに30分程度の粒度に明示的に分けた場合でも、8分前後で中断されました。これらの挙動から、内側に別の制約が存在していると推測しています。おそらく、契約プランや実行条件によって、この上限は変わるのだと思います。ChatGPT Proのアカウントの方は是非8分超のタスクを試してみてください。

コードレビューをClaude Codeと比較

Codex CLIの「/review」コマンドとClaude Codeの「/security‑review」(Opus 4.1)を比較しました。 ts‑benchのリポジトリで、セキュリティレビューが必要なDockerコマンド連携の改修プルリクエストを題材とします。 リポジトリ全体は1万行弱で、プルリクエストは1000行の変更があります。

v1.1.0: Update agent builders by laiso · Pull Request #28 · laiso/ts-bench
Overview This update aims to improve Docker image runtime compatibility, reduce image size, enable on-demand CLI installation, and unify environment variable checks. Main objectives: Support agent…

結果はClaude Codeはセキュリティ問題なしを報告、GPT‑5 Codexは脆弱性の問題はないとしつつも、シェルスクリプトコマンドの引数と実装ロジックの誤差を検出し、特定の引数の時期待どうりプログラムが動作しないことを報告しました。以下が実行時ログです。Claude Codeは最終報告のみですが、Codex CLIは思考過程もターミナルに出力されています。

claude-code-opus-4-1.md
GitHub Gist: instantly share code, notes, and snippets.

Claude Codeについてはレビューがセキュリティ面にフォーカスしているため、網羅的にチェックしている範囲が異なるように見えます。

おわりに

最後に、導入判断の観点を簡潔にまとめます。Codex CLIを使う前提では、最高品質のコーディングを狙うならGPT‑5 Codexが最有力の選択肢になります。Claude Code+Opus 4.1の組み合わせを置き換え得るレベルといえます。

その一方で、より多くの思考量が効くぶん、待ち時間が増える場面があります。短いフィードバックループを最優先する場合は、reasoning_effortを下げるか、gpt‑5‑mini系への切り替えを検討するとよいと思います。タスクの性質に応じて、CLIやCloudで長時間実行をするのか、手元のIDE拡張でモデルを頻繁に切り替えながら使うのか、などの選択があります。

前述のLatent Spaceの記事に素晴らしい比較表が掲載されていますので引用します。自律性、範囲、導入コストの観点でどのインターフェイスを選択すると良いのかの指標になります。

https://www.latent.space/p/gpt5-codex

Subscribe to laiso

Sign up now to get access to the library of members-only issues.
Jamie Larson
Subscribe