「GPT-5.2 Thinkingが人間の専門家に7割勝った」——このニュースを聞いて、正直驚いた。
2025年12月11日、OpenAIがリリースしたGPT-5.2シリーズの中で、Thinkingモデルは業務タスク評価(GDPval)で70.9%のタスクにおいて人間の専門家と同等以上の成果を出した。FrontierMathでは40.3%、GPQA Diamondでは92.4%。数字だけ見ると「すごい」で終わりそうだが、実はこれらのベンチマーク数値には読み解くべきポイントがいくつもある。
この記事では、GPT-5.2 Thinkingのベンチマーク結果を正しく読み解く方法、3つのモデルバリアント(Instant / Thinking / Pro)の使い分け、そしてAPIでの実装パターンまでを、コード例つきで解説します。
GPT-5.2 Thinkingの主要ベンチマーク一覧
まずファクトを整理しましょう。以下はGPT-5.2シリーズの主要ベンチマーク結果です。
| ベンチマーク | GPT-5.2 Thinking | GPT-5.2 Pro | Claude Opus 4.5 | Gemini 3 Pro |
|---|---|---|---|---|
| GDPval(業務タスク) | 70.9% | — | — | — |
| GPQA Diamond | 92.4% | 93.2% | — | — |
| FrontierMath (Tier 1-3) | 40.3% | 40.3% | — | — |
| ARC-AGI-2 | 52.9% | 54.2% | 37.6% | 31.1% |
| SWE-Bench Verified | 80.0% | — | 80.9% | 76.2% |
| SWE-Bench Pro | 55.6% | — | — | — |
| AIME 2025 | 100% | — | 100% | — |
| MMMU-Pro(Vision) | 86.5% | — | — | — |
出典: OpenAI公式発表(2025年12月11日)、Vellum.ai ベンチマーク分析(参照日: 2026-03-13)
数字を並べるだけなら誰でもできる。重要なのは、これらの数字が何を意味し、何を意味しないかを理解することです。なお、低コスト・高速推論の領域ではGoogleのGemini 3.1 Flash-Liteが強力な選択肢として浮上しており、用途によってはGPT-5.2と使い分ける価値がある。
GDPval 70.9%の正しい読み方
GDPvalは、プレゼン資料の作成、スプレッドシートの分析、レポート執筆など、44の職種にまたがる知識労働タスクを評価するベンチマークです。
「70.9%で専門家に勝利」と聞くと、あたかもAIがあらゆる仕事で人間を超えたように聞こえるかもしれない。しかし、押さえておくべき前提条件があります。
- 「well-specified tasks」に限定: 要件が明確に定義されたタスクが対象。曖昧な指示や創造的判断が必要なタスクは評価対象外
- 速度とコストは圧倒的: 専門家の11倍以上の速度、コストは1%未満。品質だけでなく効率面での優位性が大きい
- 残り29.1%は人間が勝つ: ニュアンスの判断、文脈の深い理解、ドメイン固有の暗黙知が必要なタスクでは、まだ人間に軍配が上がる
要するに、「定型的だが専門知識が必要な業務」ではGPT-5.2 Thinkingが実用レベルに達しているということ。逆に言えば、AIに丸投げしていい業務と、人間の判断が不可欠な業務の線引きがより明確になったとも言えます。
FrontierMath 40.3%とGPQA 92.4%が示すもの
FrontierMath: 数学研究の最前線
FrontierMathは、大学院レベル以上の高度な数学問題を集めたベンチマークです。Tier 1〜3まであり、Tier 3は研究者でも数日かかるレベルの問題が含まれています。
40.3%という数字は、正直、低く見えるかもしれない。だが前のモデル(GPT-5.1)からは約10ポイントの改善で、これは非常に大きな進歩です。数学の研究フロンティアにおけるAIの能力は急速に伸びているが、まだ人間の数学者を完全に代替するレベルではない。
GPQA Diamond: 大学院レベルの科学知識
GPQA(Graduate-Level Google-Proof Q&A)Diamondは、物理学・化学・生物学の大学院レベルの問題で、Google検索では答えが見つからない難問を集めたベンチマークです。
GPT-5.2 Thinkingの92.4%は、Proモデルの93.2%に肉薄しています。研究論文の理解や科学的推論において、このモデルは非常に高い能力を持っていると言えます。
3つのモデルバリアントの使い分け
GPT-5.2には3つのバリアントがあり、用途によって使い分けが重要です。AIエージェント構築のベストプラクティスでも解説していますが、モデル選択はエージェントの性能とコストに直結します。
| バリアント | モデルID | 用途 | 推論レベル | 料金(入力/出力 per 1Mトークン) |
|---|---|---|---|---|
| Instant | gpt-5.2-chat-latest | カスタマーサポート、翻訳、コンテンツ生成 | なし(高速) | $1.75 / $14 |
| Thinking | gpt-5.2 | コーディング、長文分析、計画立案 | none〜xhigh | $1.75 / $14 |
| Pro | gpt-5.2-pro | 科学研究、数学証明、高難度デバッグ | 最大計算量 | $21 / $168 |
料金情報の最終確認: 2026-03-13(OpenRouter経由)
ポイント: ThinkingとInstantは同じ料金体系。違いは推論(reasoning)の有無です。Proは12倍の料金がかかるため、本当に最高精度が必要なケースに限定すべきです。
API実装パターン: reasoning_effortの使い分け
GPT-5.2 Thinkingの最大の特徴は、reasoning.effortパラメータで推論の深さを動的に制御できる点です。以下のPythonコードで実際に試してみましょう。
基本的な呼び出し(推論あり)
Chat Completions APIでreasoning effortを指定する基本パターンです。
# 動作環境: Python 3.11+, openai>=1.30.0
# pip install openai
import os
from openai import OpenAI
client = OpenAI(api_key=os.environ["OPENAI_API_KEY"])
# reasoning effort: none, low, medium, high, xhigh
response = client.chat.completions.create(
model="gpt-5.2",
reasoning={"effort": "high"},
messages=[
{"role": "system", "content": "あなたはデータ分析の専門家です。"},
{"role": "user", "content": "四半期売上データから異常値を検出し、原因仮説を3つ挙げてください。"}
]
)
print(response.choices[0].message.content)
# 推論過程を確認する場合
if hasattr(response.choices[0].message, 'reasoning_details'):
print("=== 推論過程 ===")
print(response.choices[0].message.reasoning_details)
注意: 本番環境で使用する前に、必ずテスト環境で動作確認してください。
effort levelの使い分け判断フロー
| effort | レイテンシ | 推論トークン | おすすめユースケース |
|---|---|---|---|
none | 最速 | 0 | チャットボット、FAQ応答、翻訳 |
low | やや速い | 少量 | メール要約、分類タスク |
medium | 中程度 | 中程度 | コードレビュー、文書分析 |
high | やや遅い | 多め | 複雑な計画立案、マルチステップ推論 |
xhigh | 最も遅い | 最大 | 数学証明、高難度コーディング |
コスト最適化: 動的effort切り替え
実務では、タスクの複雑さに応じてeffort levelを動的に切り替えるのが賢いアプローチです。
# 動作環境: Python 3.11+, openai>=1.30.0
import os
from openai import OpenAI
client = OpenAI(api_key=os.environ["OPENAI_API_KEY"])
def smart_query(prompt: str, complexity: str = "auto") -> str:
"""タスク複雑度に応じてreasoning effortを自動調整"""
effort_map = {
"simple": "none", # 単純な質問
"moderate": "medium", # 分析タスク
"complex": "high", # 複雑な推論
"research": "xhigh", # 研究レベル
}
if complexity == "auto":
# まずnoneで分類し、必要に応じてescalate
classify = client.chat.completions.create(
model="gpt-5.2",
reasoning={"effort": "none"},
messages=[{"role": "user", "content": f"以下のタスクの複雑度をsimple/moderate/complex/researchで分類してください: {prompt[:200]}"}]
)
complexity = classify.choices[0].message.content.strip().lower()
effort = effort_map.get(complexity, "medium")
response = client.chat.completions.create(
model="gpt-5.2",
reasoning={"effort": effort},
messages=[{"role": "user", "content": prompt}]
)
return response.choices[0].message.content
# 使用例
result = smart_query("Pythonのリストから重複を除去してください", "simple")
result = smart_query("四半期決算データの異常検出と原因分析をしてください", "complex")
注意: 本番環境で使用する前に、必ずテスト環境で動作確認してください。APIキーは環境変数で管理し、コードにハードコードしないでください。
【要注意】GPT-5.2 Thinking活用でよくある失敗パターン
失敗1: 全リクエストでxhighを使ってしまう
❌ すべてのAPIコールでreasoning={"effort": "xhigh"}を設定
⭕ タスクの複雑度に応じてeffort levelを使い分ける
なぜ重要か: xhighは推論トークンが大量に消費されるため、単純なタスクでも高額になる。effort=noneで十分なタスクにxhighを使うのは、タクシーで隣のコンビニに行くようなものです。
失敗2: ThinkingとInstantを混同する
❌ チャットボットのバックエンドにgpt-5.2(Thinking)をそのまま使う
⭕ リアルタイム応答にはgpt-5.2-chat-latest(Instant)、分析タスクにはgpt-5.2(Thinking)
なぜ重要か: Thinkingモデルはデフォルトでreasoning=noneだが、Instantモデルのほうがスループット最適化されている。チャットボットのような低レイテンシが必要な場面ではInstantを選ぶべきです。
失敗3: ベンチマーク数値を鵜呑みにしてモデルを選ぶ
❌ 「GPQA 92.4%だからGPT-5.2が最強」と判断する
⭕ 自社のユースケースで実際にA/Bテストを行う
なぜ重要か: ベンチマークは特定の条件下での数値。SWE-Bench VerifiedではClaude Opus 4.5(80.9%)がGPT-5.2 Thinking(80.0%)をわずかに上回っている。タスクによって最適なモデルは異なります。たとえば低コスト・高速推論が求められるケースではGemini 3.1 Flash-Liteのほうが適切な場合もあります。
失敗4: reasoning_detailsを活用しない
❌ レスポンスの最終出力だけを使う
⭕ reasoning_detailsを確認して推論過程を検証する
なぜ重要か: 特に重要な意思決定にAIを使う場合、推論過程の確認は品質保証に不可欠。ハルシネーションの早期発見にもつながります。
GPT-5.2 Thinkingの正直な限界
正直にお伝えすると、GPT-5.2 Thinkingにも明確な限界があります。
- GDPvalの29.1%は人間に負けている: 創造的判断やドメイン固有の暗黙知が必要なタスクでは依然として人間が優位
- FrontierMath 40.3%は「まだ6割は解けない」: 高度な数学的推論は発展途上。研究目的では補助ツールとして位置づけるべき
- Pro版は12倍のコスト: 最高性能が必要な場面はあるが、コスト対効果の見極めが必須
- コンテキストウィンドウ400Kでも万能ではない: 長文処理能力は向上したが、256K超のコンテキストではMRCRv2 8-needleテストで70%に低下する
だからこそ、「AIに丸投げ」ではなく、タスクの性質に応じてモデルバリアントとeffort levelを選択する設計が重要です。a16zのTop100レポートが示す通り、ユーザーの20%が複数のAIを併用する時代であり、GPT-5.2一択ではなく状況に応じたモデル選択が求められています。
参考・出典
- Introducing GPT-5.2 — OpenAI(参照日: 2026-03-13)
- Advancing science and math with GPT-5.2 — OpenAI(参照日: 2026-03-13)
- GPT-5.2 Benchmarks (Explained) — Vellum.ai(参照日: 2026-03-13)
- GPT-5.2 API Pricing & Providers — OpenRouter(参照日: 2026-03-13)
- Reasoning models — OpenAI API Documentation(参照日: 2026-03-13)
なお、オープンソースモデルの進化も見逃せません。OlMo HybridのSSM×Transformerアーキテクチャは、推論効率の面で新たな可能性を示しています。 まとめ:今日から始める3つのアクション
- 今日やること: 上記のPythonコードをコピーして、GPT-5.2 Thinkingのreasoning effortをnone/medium/highで試す。同じプロンプトでの出力品質の違いを体感してみてください
- 今週中: 自社のユースケースで最もコスト効率の良いeffort levelを特定する。単純なタスクはnone、分析系はmedium、意思決定支援はhighが目安
- 今月中: Instant/Thinking/Proの3バリアントで実際にA/Bテストを行い、品質とコストのバランスを検証する
あわせて読みたい:
- AIエージェント構築ツール徹底比較 — GPT-5.2を含む最新モデルの選び方
- NemoClaw完全解説 — エンタープライズ向けAIエージェント基盤
- Claude Memory機能の技術詳細 — 競合モデルとの比較で見えるGPT-5.2の位置づけ
著者: 佐藤傑(さとう・すぐる)
株式会社Uravation代表取締役。X(@SuguruKun_ai)フォロワー10万人超。
100社以上の企業向けAI研修・導入支援。著書累計3万部突破。
SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。
ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。
▶ 関連記事:Claude Memoryとの違いも確認
▶ 関連記事:EXLのエンタープライズ事例も参考に