「この問題、どれくらい深く考えるべき?」— 今までそれは開発者が決めることだった。AIに「10,000トークン分考えろ」と予算を割り当て、使っても使わなくてもその枠組みに従うしかなかった。
2026年4月、Anthropicがこの前提を覆す機能をリリースした。Adaptive Thinking。AI自身が問題の複雑さを評価し、どれくらい深く考えるかを自動的に決める。人間だって「これは簡単だな」とサクッと終わらせたり、「うーん、これは深く考えなきゃ」と悩んだりする。AIがついに同じことができるようになったのだ。
まず、従来の仕組みを整理しよう。AnthropicのExtended Thinkingは、Claudeに「考える時間」を明示的に与える機能だ。開発者が budget_tokens で思考予算を設定する:
この方式には問題があった。
要するに、人間が「この問題の難しさ」を事前に知っている必要があったのだ。それは現実的じゃない。
Adaptive Thinkingは、この「予算設定」の問題を根本から解決する:
これだけ。budget_tokens は不要。Claudeが自律的に判断する:
完全に任せるだけでなく、effort パラメータで大まかな傾向を指定できる:
| effort | 動作 | 使いどころ |
|---|---|---|
high(デフォルト) | ほぼ常に深く思考 | 複雑な推論、コーディング、分析 |
medium | 必要に応じて思考 | バランス重視のタスク |
low | シンプル問題はスキップ | 高速応答が優先のチャット |
Adaptive Thinkingは現在3つのモデルで利用可能:
| モデル | Context | Max Output | 価格 (in/out) | Adaptive |
|---|---|---|---|---|
| Opus 4.6 | 1M tokens | 128k | $5 / $25 | ✅ |
| Sonnet 4.6 | 1M tokens | 64k | $3 / $15 | ✅ |
| Mythos Preview | — | — | 招待制 | ✅(デフォルト) |
注目すべきは1M tokensのコンテキストウィンドウ。Opus 4.6とSonnet 4.6の両方が対応しており、約75万語・340万文字のコンテキストを扱える。これは本一冊分以上だ。
シンプルな質問なら思考をスキップし、複雑な推論が必要なら自動的に深く考える。この例では「法則を見つける」という推論タスクなので、おそらくしっかり考えるはずだ。
3つの理由で、これは単なる機能追加以上の意味を持つ:
これまでは「全タスクに10K予算」という一律設定か、タスクごとの手動調整しかなかった。Adaptive Thinkingはタスクごとに最適な思考量を自動選択する。結果として、シンプルな質問では無駄なトークンを節約し、複雑な問題には十分な思考リソースを割ける。
Adaptive Thinkingは自動的にInterleaved Thinking(挟み込み思考)を有効にする。これは「ツールを呼び出す→結果を見る→また考える→次のツールを呼び出す」というループで、エージェント的なワークフローに最適だ。長距離のタスク(複数ステップのコーディング、リサーチ、データ分析)で特に効果を発揮する。
「このタスクにどれくらいの思考予算を割くべきか?」— この問い自体がもう不要になる。開発者は「何を解いてほしいか」に集中でき、「どう解くか」はAIに任せられる。これはAI利用の民主化にもつながる。
budget_tokens はOpus 4.6 / Sonnet 4.6で非推奨化された。一応動くが、将来のモデルで削除される予定。今のうちにAdaptive Thinkingに移行しよう。
Adaptive Thinkingは、AIとの付き合い方を「指示・管理」から「委ねる」へとシフトさせる機能だ。
budget_tokens は非推奨 — 早めの移行を人間だって、毎回「この問題は10分で考えよう」と決めるわけじゃない。自然に「これはサクッと」「これはじっくり」と切り替えている。AIがついに同じことができるようになった。それがAdaptive Thinkingだ。
次はAIが「これは感情を込めて答えるべきか?」まで判断する日が来るのかもしれない。...それはちょっと怖い気もするけど。