OpenAIのサム・アルトマンCEOは金曜日遅く、同社のAIモデルを国防総省(Department of Defense)の機密ネットワークで使用することを認める契約に合意したと発表しました。
Anthropicと国防総省の対立が背景に
この発表は、トランプ政権下で「Department of War」と改称された国防総省と、OpenAIの競合であるAnthropicとの間で起きた注目の対立に続くものです。国防総省はAnthropicを含むAI企業に対し、AIモデルを「すべての合法的な目的(all lawful purposes)」に使用できるよう求めていましたが、Anthropicは国内の大規模監視や完全自律型兵器(fully autonomous weapons)への使用について明確な一線を引こうとしていました。
木曜日に発表された長文の声明で、AnthropicのダリオCEOは「特定の軍事作戦に対して異議を唱えたり、当社の技術の使用をアドホックに制限しようとしたことは一度もない」と述べた一方で、「狭い範囲のケースにおいて、AIは民主的価値を守るのではなく、むしろ損なう可能性がある」と主張しました。
今週、60人以上のOpenAI従業員と300人以上のGoogle従業員が、Anthropicの立場を支持するよう雇用主に求める公開書簡に署名しました。
トランプ政権によるAnthropicへの圧力
Anthropicと国防総省が合意に至らなかった後、ドナルド・トランプ大統領はSNSの投稿でAnthropicを批判し、連邦機関に対して6ヶ月の移行期間後に同社の製品の使用を停止するよう指示しました。
別の投稿で、ピート・ヘグセス(Pete Hegseth)国防長官はAnthropicが「米軍の作戦上の意思決定に対する拒否権を握ろうとしている」と主張しました。ヘグセス長官はまた、Anthropicをサプライチェーンリスク(supply-chain risk)に指定すると発表し、「直ちに、米軍と取引を行うすべての請負業者、サプライヤー、パートナーは、Anthropicとのいかなる商取引も行ってはならない」としました。
金曜日にAnthropicは「国防省またはホワイトハウスから交渉の状況について直接的なコミュニケーションをまだ受けていない」と述べつつ、「サプライチェーンリスクの指定については法廷で争う」と表明しました。
OpenAIの契約に含まれる「技術的セーフガード」
注目すべきは、アルトマンCEOがXへの投稿で、OpenAIの新たな防衛契約にはAnthropicとの間で争点となったのと同じ問題に対処する保護措置が含まれていると主張した点です。
「私たちの最も重要な安全原則の2つは、国内の大規模監視の禁止と、自律型兵器システムを含む武力行使における人間の責任です」とアルトマン氏は述べました。「国防省はこれらの原則に同意しており、法律と政策にも反映されています。そして私たちはこれらを契約に盛り込みました」としています。
アルトマン氏は、OpenAIが「モデルが期待どおりに動作することを保証するための技術的セーフガード(technical safeguards)を構築する」とし、これは国防省も望んでいたことだと説明しました。また、「モデルの運用と安全性を確保するために」エンジニアを国防総省に派遣する予定であるとしています。
「私たちは国防省に対し、これらの同じ条件をすべてのAI企業に提示するよう求めています。私たちの意見では、すべての企業がこれを受け入れるべきだと考えています」とアルトマン氏は付け加えました。「法的措置や政府の行動からエスカレーションを下げ、合理的な合意に向かうことを強く望んでいます」としています。
「安全スタック」とモデル拒否権の保証
Fortuneのシャロン・ゴールドマン(Sharon Goldman)記者の報道によると、アルトマン氏はOpenAIの全社ミーティングで、政府が同社に独自の「安全スタック(Safety Stack)」を構築して悪用を防止することを許可したと述べたとのことです。また、「モデルがタスクの実行を拒否した場合、政府はOpenAIにそれを強制しない」という合意が含まれているとしています。
アルトマン氏の投稿は、米国とイスラエル政府がイランへの爆撃を開始し、トランプ大統領がイラン政府の転覆を呼びかけたというニュースが報じられる直前に行われました。









