米国防総省(DoD)は2026年3月5日、AI企業Anthropicおよびその製品を正式に「サプライチェーンリスク」に指定したことを同社に通告しました。この指定は即時発効で、防衛関連の請負業者や契約企業は、国防総省との業務においてAnthropicのAIモデルを使用していないことを証明する義務を負います。一方で、国防総省はイランでの軍事作戦において、同社のAIモデル「Claude」を引き続き活用しているという矛盾した状況が生まれています。
対立の背景:自律型兵器と監視をめぐる溝
Anthropicと国防総省の対立は、AIの軍事利用をめぐる根本的な価値観の違いに起因しています。Anthropicは、自社の技術が完全自律型兵器や国内の大規模監視に使用されないことの保証を求めました。一方、国防総省はClaudeをあらゆる合法的な用途に制限なく利用できるアクセスを要求しました。
Anthropic CEOのDario Amodei氏は、国防総省がClaudeをすべての合法的な用途で使用することを許可する要求に対して「良心に照らして同意することはできない」と述べました。同氏は社内メモの中で、トランプ政権がAnthropicを好まない理由として、同社が献金や「独裁者的な賛辞」をトランプ大統領に捧げていないことを挙げたとも報じられています。
2億ドルの契約と分類ネットワークへの統合
Anthropicは2025年7月に国防総省と2億ドル規模の契約を締結し、機密ネットワーク上のミッションワークフローにAIモデルを統合した最初のAI企業でした。同月、国防総省はAnthropic、OpenAI、Google DeepMind、Elon Musk氏のxAIの4社に対し、米国の国家安全保障に関連するフロンティアAI能力のプロトタイプ開発のため、それぞれ最大2億ドルの契約を授与しました。
Claudeは最近まで、機密軍事環境で認可された唯一のAIモデルでした。この事実が、国防総省の危機感の根底にあります。国防総省の研究・工学担当次官であるEmil Michael氏は、「もしこのソフトウェアがダウンしたり、何らかのガードレールが作動したり、次の戦闘で拒否が発生したりして、兵士たちを危険にさらすことになったらどうするのか」と懸念を表明しました。
トランプ大統領の介入とブラックリスト指定
交渉の期限までに合意に至らなかったことを受け、トランプ大統領はすべての連邦政府機関に対してAnthropicの技術の「即時使用停止」を指示しました。国防総省などの機関には6ヶ月の移行期間が設けられています。Pete Hegseth国防長官は、Anthropicを「国家安全保障に対するサプライチェーンリスク」に指定しました。この指定は従来、外国の敵対勢力に対して使われてきたもので、米国企業が公式にこの指定を受けるのはAnthropicが初めてです。
ホワイトハウスのAI・暗号資産担当であるDavid Sacks氏は、以前からAnthropicが規制に対する姿勢を理由に「ウォークAI(woke AI)」を支持していると非難していました。また、Amodei氏はOpenAI CEOのSam Altman氏やApple CEOのTim Cook氏、Google CEOのSundar Pichai氏とは対照的に、トランプ大統領との関係構築を避けてきたことも背景にあります。
イラン作戦でのClaude使用は継続
対立と交渉の決裂にもかかわらず、国防総省はイランでの軍事作戦においてAnthropicのモデルを支援ツールとして使い続けています。具体的には、大量の情報処理に活用されており、膨大な報告書や文書を要約し、アナリストが迅速にレビューできるようにする目的で使用されています。この事実は、Claudeの軍事的有用性の高さと、代替手段の不足という現実を浮き彫りにしています。
競合他社の動きと業界の反応
OpenAI CEOのSam Altman氏は、Anthropicがブラックリストに指定されたわずか数時間後に国防総省との契約を発表しました。しかし、このタイミングは世論の反発を招き、Claudeのアプリダウンロード数が急増する一方で、ChatGPTのアンインストールが増加したと報じられています。Altman氏は後に「急ぎすぎるべきではなかった」と認めました。
Michael次官はその後、OpenAIとxAIにも接触し、同一条件でのAI提供を求めました。「国家安全保障のためにAIベンダーの冗長性が必要だ」と同氏は述べています。
また、Google、OpenAIなどのテック企業の従業員たちは、雇用主が軍事機関と協力する際のより明確な制限を求める書簡を相次いで回覧しています。「We Will Not Be Divided(私たちは分断されない)」と題された公開書簡は、週末の数百名の署名から月曜日には約900名にまで拡大しました。
交渉の再開とMicrosoftの対応
フィナンシャル・タイムズの報道によると、Amodei氏はMichael次官と再び交渉のテーブルに着いています。Claudeモデルへの国防総省のアクセス条件について、土壇場での合意を目指す最後の交渉が進められています。
一方、MicrosoftはAnthropicの技術を自社製品に引き続き組み込むことを発表しましたが、米国防総省(旧称:国防総省、現在は「戦争省」と呼称変更)向けの顧客は除外するとしています。
Anthropicは「サプライチェーンリスクの指定は法的に根拠がなく、政府と交渉する米国企業にとって危険な前例を作ることになる」として、法廷で異議を申し立てる方針を示しています。
今後の注目ポイント
この一件は、AI技術の軍事利用をめぐる倫理的な議論を加速させています。AI企業が自社技術の利用条件を設定する権利と、国家安全保障上の要求との間でどのようなバランスが取られるべきかが、今後のAI業界全体の方向性に大きな影響を与えることになるでしょう。Anthropicと国防総省の交渉結果は、他のAI企業にとっても重要な先例となります。









