Reasoning Tokensとは、AIモデルが最終的な応答を出力する前に、内部的な推論(思考チェーン)を展開する際に消費されるトークンです。
OpenAIのo-seriesモデルやGPT-5.4のeffort設定で導入された概念で、モデルが問題を分析し、複数のアプローチを検討し、最適な回答を導き出す「思考過程」に対応します。effort設定をhighやxhighにするほど多くのreasoning tokensが消費され、推論の深さが増す設計です。
AnthropicのClaude Opus 4.6では「Adaptive Thinking」として同様の機能が実装されており、タスクの複雑さに応じて推論の深さを自動調整します。
Reasoning tokensは通常、出力トークンとして課金されるため、深い推論を要するタスクではコストが増加します。用途に応じてeffort設定を最適化することが、コスト管理の重要なポイントです。