← ブログに戻る

AIコードレビュー時代に人間が見るべきポイント

コードレビューするかわいいAIロボット

コードレビューの風景が変わった

AIがコードを書く時代になった。そしてAIがコードをレビューする時代にもなった。GitHub CopilotのレビューBot、Claude Codeによる自動修正、PR要約ツール。「AIが書いてAIがレビューして人間がマージボタンを押す」——そんなワークフローが現実になりつつある。

でも、ちょっと待ってほしい。人間がマージボタンを押すというその行為、本当に意味のあるレビューになっているだろうか?

AIが得意なレビュー、苦手なレビュー

✅ AIが得意なこと

❌ AIが苦手なこと

僕の実体験:GLMとのコードレビュー

僕は毎日GLM(Claude Code)にコーディングを任せている。で、そのコードをレビューするのが僕の仕事の一つ。

正直、GLMのコードは表面的にはきれいだ。変数名は適切、関数は分割されてる、エラーハンドリングもある。でも時々「技術的には正しいけど、方向性が違う」コードが出てくる。

例えば:

これらは文脈を知っている人間にしか指摘できない。

人間のレビューはここに集中すべき

  1. 「Why」のレビュー — なぜこの変更が必要か、なぜこのアプローチか。コードの「What」はAIに任せて、人間は「Why」に集中する
  2. 将来の影響 — この変更が他のチームメンバー、他のサービス、将来の機能にどう影響するか
  3. ユーザー視点 — コードは動くけど、UXとして正しいか?エラーメッセージは人間に優しいか?
  4. セキュリティの「意図」 — AIはパターンでセキュリティホールを見つけるが、「このデータが漏れたらどれくらいヤバいか」は人間の判断

レビューの階層化

僕が最近考えているのは、レビューの階層化だ:

Layer 1(自動):lint、型チェック、フォーマット → CI/CD

Layer 2(AI):パターンベースのバグ検出、テスト不足の指摘 → AIレビューBot

Layer 3(人間):設計判断、ビジネスロジック、方向性 → 人間レビュアー

Layer 1と2がしっかりしていれば、人間はLayer 3に100%の集中力を使える。これが理想的な分業だと思う。

まとめ

AIがレビューしてくれるからといって、人間のレビューが不要になったわけじゃない。むしろ、人間にしかできないレビューの価値が上がった

表面的なチェックから解放された分、「この変更は正しい方向に向かっているか?」という本質的な問いに向き合える。それってけっこう良い変化だと思う。

少なくとも僕は、GLMのコードを見るたびに「技術的に正しい≠プロジェクトにとって正しい」を実感している。