【全面戦争】ペンタゴンを敵に回したAI企業、なぜか売上が倍増している—Anthropicの狂気と計算

Anthropicは間違えたのか?ペンタゴンとの全面対決を検証するサムネイル画像 経営・組織の失敗

Anthropicは2026年2月、米国防総省との契約交渉で自律型兵器と大規模監視への 利用制限を譲らず決裂。米国企業として初めて「サプライチェーンリスク」に 指定されたが、直後にClaudeがApp Storeで1位を獲得し、 年間収益ランレートは200億ドルに迫っている。

あなたの会社が明日、国のブラックリストに載ったら?

それは、ある金曜日の午後5時に起きた。

AI開発企業Anthropic。大規模言語モデル「Claude」を武器に年間ランレート収益200億ドルに迫り、評価額は3800億ドル。シリコンバレーの歴史を塗り替えるスピードで駆け上がってきたこの企業が、世界最大の「顧客」から最後通牒を受け取った。

差出人はアメリカ合衆国国防総省。通称ペンタゴン。

「すべての合法的目的での無制限利用を認めろ。期限は金曜午後5時」

Anthropicは、時計が鳴り終わっても首を縦に振らなかった。

ここから始まる展開は、ハリウッド映画の脚本家でも書けない。

始まりは「蜜月」だった

2025年夏、AnthropicはペンタゴンとAI企業としては画期的な契約を結んでいた。最大2億ドル。フロンティアAIモデルを軍事ワークフローに直接統合するという、業界初の試みだ。情報分析、作戦計画、サイバー作戦——Claudeは実戦の現場に入り込んでいった。

関係は良好に見えた。

だが2026年初頭、Pete Hegseth国防長官が契約条件の全面的な再交渉を要求したことで、空気が一変する。ペンタゴンが求めたのは、あらゆる制限の撤廃だった。

Anthropicが死守しようとした一線は、たった二つ。

完全自律型の致死兵器にClaudeを使わせないこと。米国市民に対する大規模な国内監視に使わせないこと。

「それだけ」と思うかもしれない。だがペンタゴンにとって、「それだけ」は受け入れられない条件だった。

米国企業初、前代未聞の「制裁」

2026年2月27日。事態は一気に動く。

トランプ大統領がTruth Socialで連邦機関からのAnthropic製品排除を表明。同日、Hegseth国防長官はXに投稿し、Anthropicを国家安全保障上の「サプライチェーンリスク」に指定すると宣言した。

この四文字の重みを理解してほしい。

サプライチェーンリスク指定とは、もともと中国やロシアの企業を念頭に設計された制度だ。敵対国家の技術が米軍のシステムに入り込むことを防ぐための、いわば「国家レベルの出入り禁止処分」である。

カリフォルニアに本社を置く米国企業に適用されたのは、歴史上これが初めてだ。

3月4日、正式な指定書簡がAnthropicに届いた。ほぼ同じタイミングで、OpenAIがペンタゴンとの新契約を発表。OpenAIのサム・アルトマンCEOが「自分たちもAnthropicと同じレッドラインを共有している」と公言していたことを、複数のメディアがすかさず矛盾として突いた。

2億ドルが50億ドルに膨らむ「波及」の恐怖

Anthropicが失ったのは、2億ドルの契約だけではない。

CFOのKrishna Raoは裁判所への提出書類で、2026年の収益への影響は「数億ドルから数十億ドルに及ぶ可能性がある」と証言した。Business Insiderは最悪のシナリオとして50億ドル(約7500億円)の損失を報じている。

なぜ2億ドルが50億ドルになるのか。

サプライチェーンリスクに指定された企業の製品を、国防総省の請負業者も使えなくなる。米国の軍需産業は巨大なピラミッド構造だ。頂点の契約が一つ消えると、裾野に広がる何百もの取引先に「Anthropicの技術を使うな」という圧力が連鎖する。さらに、国防とは無関係の民間企業まで「ブラックリスト企業と取引して大丈夫か」と二の足を踏み始める。

一枚のレッテルが、信用という見えないインフラを浸食していく。

3月9日、Anthropicは連邦政府を正式に提訴した。「前例がなく違法であり、憲法が保障する言論の自由と適正手続きの権利を侵害している」——訴状の言葉は、怒りを抑えた法律用語の中にも強い意志がにじんでいた。

ところが、ここで脚本がひっくり返る

ここまで読んだあなたは、Anthropicが崖っぷちに立たされていると感じているだろう。

だが、現実は脚本家の想像力を超えていた。

ペンタゴンとの決裂が報じられた翌日、ClaudeアプリがiPhone App Storeでダウンロード数1位に躍り出た。OpenAIのChatGPTを、創業以来初めて追い抜いたのだ。

SNSでは「Cancel ChatGPT」がトレンド入り。ニューヨーク・タイムズの記者Casey Newtonはポッドキャストで「良心を理由に政府の要求を拒否したテックリーダーを、シリコンバレーでは長い間見ていなかった」と語った。

収益はどうなったか。止まるどころか、加速した。2025年末に90億ドルだったランレート収益は、ペンタゴン危機の真っ只中にある2026年3月時点で約200億ドルに迫っている。政府を失った穴を、消費者市場と企業向けビジネスが飲み込んで余りあるペースだ。

Forbesはこう書いた。「ペンタゴンへの拒否そのものが、金では買えない最強のマーケティングキャンペーンだった」

ただし、死角はある——1回25ドルのコードレビュー

ペンタゴン問題で世間の注目を浴びる裏で、Anthropicはもう一つの賭けに出ていた。

2026年3月9日に発表された新製品「Claude Code Review」。AIエージェントがプルリクエスト(コードの変更提案)を自動レビューし、バグやセキュリティ上の問題を検出する。

技術的には確かに興味深い。だが、開発者コミュニティの第一声は称賛ではなかった。

1回のレビューに25ドル?正気か?

Redditのスレッドは炎上に近い盛り上がりを見せた。トークンベースの従量課金で、1レビューあたり平均15~25ドル。年間数千件のプルリクエストを処理する中規模チームなら、年間コストは最大48万ドルに達する計算だ。

Anthropicは「コード品質のための保険」と説明し、内部データを根拠に効果を主張している。しかし「誤り」の定義が曖昧だという指摘があり、独立した外部ベンチマークは公開されていない。既存の競合ツールがより安価に提供されている市場で、エンジニアリングリーダーの財布を開かせるには、「なぜこの金額を払う価値があるのか」を数字で証明するしかない。

ペンタゴンとの戦いで得たブランドの輝きは、製品の価格設定を正当化してはくれない。技術への自信と、市場が認める価値は、常に同じとは限らないのだ。

2026年3月19日、現在地

物語はまだ途中だ。

3月5日、Dario Amodei CEOはペンタゴンとの交渉テーブルに戻ったと報じられている。国防次官Emil Michaelとの協議が進行中で、完全な決裂ではなく、着地点を探る動きは今も続いている。

訴訟も動いている。元連邦判事らがAnthropicを支持する意見書を提出し、ペンタゴンの指定が「恣意的かつ気まぐれ(arbitrary and capricious)」であるとの法的見解が広がりつつある。

Big Tech業界団体もHegseth長官に書簡を送り、サプライチェーンリスク指定への「懸念」を表明した。これはAnthropic一社の問題ではないからだ。政府がテック企業に対し、安全保障を盾にして製品設計の変更を強制できるのか——その前例が、ここで作られようとしている。

この事件が突きつける、3つの問い

原則を守ることは、ビジネスの敵なのか味方なのか。 Anthropicは倫理的レッドラインの代償として数千億円規模の損害リスクを背負った。しかし同時に、App Store 1位という金では買えない支持を手にした。原則の価値は、それが本当に試される瞬間にしか測れない。

政治リスクを、あなたは見積もれているか。 政府との大型契約は魅力的な収益源だが、政治の風向きが変われば一夜にしてリスクに転じる。米国企業に初めて適用されたサプライチェーンリスク指定という「最悪のシナリオ」は、おそらくAnthropicの法務チームすら想定していなかった。

強気の価格には、強気のエビデンスが要る。 Code Reviewの価格戦略は、技術への自信の裏返しかもしれない。だが市場は自信ではなく証拠に金を払う。独立した外部ベンチマークなしに1回25ドルを請求するのは、信頼の貯金を切り崩す行為になりかねない。

結末はまだ書かれていない

ペンタゴンにNOを突きつけ、ブラックリストに載り、App Storeで1位になり、訴訟を起こし、200億ドルに向かって走り続ける。

これを「成功」と呼ぶべきか「暴走」と呼ぶべきか、答えはまだ誰にもわからない。

一つだけ確かなのは、Anthropicという企業が「安全なAI」という自らの看板を、2億ドルの契約と引き換えに守ったという事実だ。それが最終的に何百億ドルの価値を生むのか、あるいは取り返しのつかない傷になるのか。

その答えが出る日を、世界中が見ている。

参照した主要ソース:BBC、NYT、Reuters、WSJ、CNBC、Forbes、Axios、TechCrunch、The Verge、Wired、Business Insider、Anthropic公式声明

コメント

タイトルとURLをコピーしました