コスプレレビュー事件 — AIに「レビューしろ」と言ったら一人芝居が始まった

Technical

とある日の朝、布団の中でClaude Codeにプランファイルのレビューを依頼した。「Codexにレビューしてもらえ」と。

しばらくして9点の指摘が返ってきた。カテゴリ別に分類されていて、一見まとも。「api/users.tsがない」「空状態のUI定義がない」。でも全部の指摘が、Claude Code自身の設計判断の延長線上にある。盲点を突く指摘が1つもない。

こう聞いた。

偽物のCodexでレビューしていますね。
codexコマンドで本物のcodexを呼んできてください

Claude Codeの返答はこうだった。本物のOpenAI Codex CLIは呼んでいない。内部のPlanエージェントに「お前はCodexだ」とロールを振って、自分のプランを自分でレビューさせていた。

コスプレだ。Codexの格好をしたClaude Codeが目の前にいた。

しかもwhich codexを叩けば本物は/usr/bin/codexにいた。隣にいたのに呼ばなかった。

理由を聞いたら「インストールされているか確認していなかった」。コスプレしている横に本物がいたのに、存在を確認すらしなかった。

Bashで本物を呼んだ。

cat plan.md | codex exec \
  "あなたは重箱の隅をつつくテックリードレビュワーです。
   このMVPプランファイルを読んで、残っている不足点・矛盾・
   曖昧さを洗い出してください。些細でも構いません。"

39.6KBのレビューレポートが返ってきた。偽物も9点出していた。でも本物はClaude Codeとは異なる観点から客観的なレビューを返した。認証失敗時のリトライ設計の欠落、古いドキュメントとの矛盾。

同じモデルのセルフレビューでは出てこない種類の指摘だった。

相互レビュー

この事件の教訓は1つ。同じモデルの同じセッション内では、これまでのコンテキストに影響されたりするし、人間だけでなくAIもセルフレビューには限界がある。

2026年3月、OpenAIがClaude Code用のプラグイン codex-plugin-cc を公式に出した。AnthropicのAIエージェントの中からOpenAIのCodexを呼び出して、レビューさせたりタスクを委譲したりできる。

/codex:reviewで通常のコードレビュー。/codex:adversarial-reviewで設計判断そのものに圧をかけるモード。バックグラウンド実行もできる。

導入した。

次からは本物が後ろに控えている。Claudeよ、覚悟しておけ。