ニュース

OpenAI Codex Security|コード脆弱性を自動検出する新ツール

OpenAI Codex Security|コード脆弱性を自動検出する新ツール

この記事の結論

OpenAIがCodex Securityをリサーチプレビューとして公開。120万コミットをスキャンし1万件超の脆弱性を発見。従来ツール比で誤検知50%以上削減。仕組みと開発者への影響を解説。

2026年3月6日、OpenAIが新しいセキュリティツール「Codex Security」をリサーチプレビューとして公開した。

これは単なる静的解析ツールではない。GitHubリポジトリに接続し、コードベース全体の脅威モデルを自動生成した上で、脆弱性の発見・検証・修正提案までを一気通貫で行うAIエージェントだ。従来のSASTツールが大量のアラートを吐き出して開発者を疲弊させてきた問題に、真正面から切り込んでいる。

正直、これはかなりインパクトがある。前身となる「Aardvark」は2025年10月にプライベートベータとして登場していたが、今回の正式プレビューで一気に実用段階に近づいた。AIエージェントを開発・運用している人にとって、セキュリティの考え方が変わる可能性がある。

120万コミットのスキャンで見えた実力

数字で見ると、その規模感がわかる。

指標 数値 備考
スキャンしたコミット数 120万件以上 ベータ期間中(30日間)
クリティカル検出数 792件 スキャン対象の0.1%未満
高深刻度の検出数 10,561件 外部リポジトリ全体
報告されたCVE数 14件 OpenSSH、GnuTLS、GOGS、PHP、Chromium等
アラートノイズ削減 84% 初期ロールアウト比
誤検知率の低減 50%以上 従来の静的解析ツール比
過剰な深刻度報告の削減 90% ベータ期間全体

特に注目すべきは、クリティカルな問題がスキャン対象全体の0.1%未満に絞り込まれている点だ。従来のSASTツールでは「アラート疲れ」が深刻な問題だったが、Codex Securityはノイズを84%カットしている。要するに、本当に危険な脆弱性だけを拾い上げる精度を持っているということだ。

発見された脆弱性 — 実際のCVE事例

Codex Securityが実際に発見・報告した脆弱性の一部を見てみよう。いずれも広く使われているオープンソースプロジェクトで見つかったものだ。

GnuTLSの脆弱性(3件)

  • CVE-2025-32990 — certtoolのヒープバッファオーバーフロー(Off-by-One)
  • CVE-2025-32989 — SCT拡張パースにおけるヒープバッファオーバーリード
  • CVE-2025-32988 — otherName SANエクスポートのダブルフリー

GOGSの認証バイパス(2件)

  • CVE-2025-64175 — 認証バイパスの脆弱性
  • CVE-2026-25242 — 認証バイパスの脆弱性

gpg-agentのスタックバッファオーバーフロー

CMS(S/MIME)のEnvelopedDataメッセージ処理時に発生するスタックベースのバッファオーバーフロー。CVSS v3.1スコアは9.8(Critical)で、リモートコード実行の可能性がある。

これらの脆弱性は人間のセキュリティ研究者が何年も見落としていたものだ。AIがコードの文脈を深く理解した上で「ここが怪しい」と指摘し、サンドボックス環境で実際にエクスプロイトを試みて確認している。

技術的に見ると — 従来のSASTと何が違うのか

Codex Securityの仕組みは、大きく3つのフェーズに分かれる。

フェーズ1: 脅威モデルの自動生成

GitHubリポジトリに接続すると、まずコードベース全体を分析してセキュリティ上重要な構造を把握する。コミット履歴も含めて、「このプロジェクトはどんな攻撃面を持っているか」を自動でモデリングする。

従来のSASTツールはパターンマッチングが中心だった。「この関数呼び出しは危険かもしれない」というルールベースの検出だ。一方、Codex Securityはプロジェクト固有のコンテキストを理解した上で探索する。

フェーズ2: 脆弱性の探索と検証

脅威モデルを基に、現実的なコードパスを辿って脆弱性候補を洗い出す。ここが最も重要なポイントで、見つけた脆弱性をサンドボックス環境で実際に再現する

# Codex Securityの検証フローの概念(擬似コード)
# 注意: これはCodex Securityの内部動作を説明するための概念的なコードであり、
# 実際のAPIやSDKのコードではありません。

# 1. 脅威モデル生成
threat_model = analyze_repository(
    repo_url="https://github.com/org/project",
    include_commit_history=True,
    depth="full"
)

# 2. 脆弱性候補の探索
candidates = scan_for_vulnerabilities(
    threat_model=threat_model,
    severity_threshold="medium"
)

# 3. サンドボックスでの検証(Codex Securityの最大の差別化ポイント)
for candidate in candidates:
    result = validate_in_sandbox(
        vulnerability=candidate,
        generate_poc=True,  # Proof of Concept自動生成
        capture_execution_details=True
    )
    if result.confirmed:
        report_finding(
            severity=result.assessed_severity,
            poc=result.proof_of_concept,
            suggested_fix=result.remediation
        )

動作環境: 上記はCodex Securityの内部ロジックを概念的に示したものです。実際の利用はCodex WebインターフェースからGitHubリポジトリを接続して行います。

フェーズ3: 修正提案

確認された脆弱性に対して、コンテキストを踏まえた修正パッチを自動提案する。単に「この行が危険」と指摘するだけでなく、「こう直せば安全になる」まで示してくれる。

誰が使えるのか — 利用条件と料金

現時点でのアクセス条件はこうなっている。

  • 対象プラン: ChatGPT Pro、Enterprise、Business、Edu
  • アクセス方法: Codex Webインターフェース経由
  • 料金: リサーチプレビュー期間中は初月無料
  • ステータス: リサーチプレビュー(2026年3月6日開始)

個人の無料プランでは使えない。ただし、Pro以上のプランであれば初月は無料で試せるので、自分のリポジトリでどの程度の脆弱性が見つかるか試してみる価値はある。

今後の正式版での料金体系はまだ発表されていない。

AIのエンタープライズ活用が広がるなか、セキュリティの重要性はさらに高まっています。EXLの250エージェントのような大規模展開では、ガバナンスとセキュリティが鍵を握ります。

開発者が知っておくべきこと

AIエージェントを開発している人にとって、Codex Securityの登場は2つの意味がある。

1. 自分のコードのセキュリティチェックに使える

AIエージェントのコードベースは、API連携・外部データ取得・ユーザー入力処理など、攻撃面が広い。Codex Securityで自分のリポジトリをスキャンすれば、見落としていた脆弱性を発見できる可能性がある。AIエージェントの基本的なセキュリティ対策については、AIエージェントのセキュリティリスク対策ガイドも参考にしてほしい。

2. セキュリティエージェントの設計パターンとして参考になる

Codex Securityのアーキテクチャ — 脅威モデル生成→探索→サンドボックス検証→修正提案 — は、セキュリティ以外のAIエージェント設計にも応用できるパターンだ。「コンテキストを深く理解してからアクションする」という設計思想は、まさにエージェント開発の教科書的なアプローチ。

3. 従来のセキュリティツールとの共存を考える

Codex Securityは万能ではない。リサーチプレビュー段階であり、従来のSASTツール(SonarQube、Semgrep、Snyk等)を完全に置き換えるものではない。むしろ、既存ツールと組み合わせて「AIが深い分析を担当し、ルールベースツールが網羅的にカバーする」というハイブリッド運用が現実的だ。

実際にCodex Securityを導入する手順については、Codex Securityの導入ガイドで詳しく解説しています。

この先どうなるか

OpenAIがセキュリティ領域に本格参入したことで、業界の地図が変わる可能性がある。

Snyk、SonarQube、Veracodeといった既存のセキュリティツールベンダーは、AIベースの脆弱性検証を自社製品にどう取り込むかが問われることになる。一方、GitHubはMicrosoftの傘下にありCopilotとの統合が進んでいるが、OpenAI(Codexの開発元)との関係がどう影響するかも注目だ。

筆者が気になっているのは、誤検知率50%削減がさらにどこまで改善されるかだ。セキュリティ分野では「見逃し」と「誤検知」のバランスが永遠の課題であり、Codex Securityがこの問題をどこまで解決できるかが普及の鍵を握る。

まだリサーチプレビュー段階だが、AIエージェントがコードセキュリティの「当たり前」になる未来は、かなり近いところまで来ている。

参考・出典


あわせて読みたい:

AIエージェントのセキュリティ対策や導入についてのご相談は、お問い合わせフォームからお気軽にどうぞ。


この記事はAIgent Lab編集部がお届けしました。

Need help moving from reading to rollout?

この記事を読んで導入イメージが固まってきた方へ

Uravationでは、AIエージェントの要件整理、PoC設計、社内導入、研修まで一気通貫で支援しています。

この記事をシェア

X Facebook LINE

※ 本記事の情報は2026年3月時点のものです。サービスの料金・仕様は変更される可能性があります。最新情報は各サービスの公式サイトをご確認ください。

関連記事