米国のトランプ大統領は28日、人工知能(AI)開発大手のAnthropic(アンソロピック)の技術について、米政府の全連邦機関における使用を即時停止するよう命じた。米 戦争省(Department of War)におけるAIモデルの利用条件を巡る数ヶ月に及ぶ交渉が決裂したことを受けた措置となる。一方、同業のOpenAIは同日、戦争省との新たな契約合意を発表しており、軍事部門におけるAI調達の明暗が分かれる結果となった。
トランプ大統領の声明と全連邦機関への利用停止命令
2月28日午前6時35分、ホワイトハウスの公式X(旧Twitter)アカウントは、トランプ大統領による厳しい非難を含む声明文を公開した。(※画像はホワイトハウス公式Xから引用。)

声明の中でトランプ大統領は、Anthropicを「急進左派でウォーク(意識高い系)な企業」「左翼の狂人たち(Leftwing nut jobs)」と表現。「偉大な米軍の戦い方や戦争の勝ち方を指図することは決して許さない。その決定権は軍の最高司令官にある」と述べた。
さらに大統領は、Anthropicが米国憲法ではなく自社の「利用規約(Terms of Service)」に従うよう戦争省に強要(STRONG-ARM)しようとする「破滅的な過ち」を犯したと指摘し、同社の姿勢が米軍兵士の命と国家安全保障を危険に晒していると主張した。
この認識に基づき、大統領は全連邦機関に対してAnthropicの技術利用を「即時停止(IMMEDIATELY CEASE)」するよう指示した。現在同社の製品を利用している戦争省などの機関には、6ヶ月間の段階的廃止(フェーズアウト)期間が設けられる。大統領は、Anthropicがこの移行期間中に協力的な姿勢を示さない場合、「大統領の全権限を行使し、重大な民事および刑事上の責任を伴う措置をとる」と警告している。
交渉決裂に至るAnthropicと戦争省のやり取り
今回の利用停止命令は、Anthropicと戦争省との間で数ヶ月間続いていた交渉が最終的に決裂した結果引き起こされた。
米国政府の機密ネットワークに最先端AIを導入した最初の企業として、Anthropicは2024年6月から軍の支援を行ってきた。しかし、自社のAIモデル「Claude」の利用範囲を巡り、戦争省との間で根本的な方針の不一致が生じていた。
Anthropic側は、国家安全保障のための合法的なAI利用は支持しつつも、自社の倫理規定に基づき「米国人に対する国内の大規模監視」と「完全自律型兵器への利用」の2点についてのみ例外として使用を拒否する姿勢を維持した。現在のAIモデルは完全自律型兵器に用いるには信頼性が不十分であり、国内監視は基本的人権の侵害にあたると主張して、この例外規定の維持を求めた。
一方の戦争省は、AIモデルの合法的かつ制限のない利用を求め、この条件を受け入れなかった。ピート・ヘグセス戦争長官は、Anthropicを国家安全保障上の「サプライチェーン・リスク」に指定する方針を決定。Anthropic側は27日、この措置を「歴史的に敵対国にのみ適用されてきた前例のないもの」と批判し、いかなる処罰や脅迫を受けても自社の立場を変更せず、法廷で争う意向を表明していた。
OpenAIが戦争省と契約締結
Anthropicと政府の対立が決定的な決裂を迎える中、競合であるOpenAIは対照的な動きを見せた。
同28日、OpenAIは戦争省の機密ネットワークに自社のAIモデルを展開する契約に合意したことを発表した。この契約には、Anthropicが求めていた条件と類似する「国内監視の禁止」や「自律型兵器における人間の責任の確保」などのセーフガードが盛り込まれ、戦争省側もこれに同意したとされる。
国防戦略の推進においてAIの全面的な活用を目指す政府と、自社の利用規約や倫理的境界線を守ろうとする民間企業との間の対立は、Anthropicの政府調達からの事実上の排除という形で一つの結末を迎えた。連邦政府全体を巻き込む今回の決定は、今後の民間AI技術の軍事利用や公共調達のあり方に多大な影響を及ぼすものとみられる。
