AIエージェント編集部
AnthropicとPentagonの闘い
コラム

AnthropicとPentagonの闘い
——AI企業は軍事利用を拒否できるか

2026-03-24

2026年3月24日、米国連邦裁判所でひとつの審問が開かれている。被告は国防総省(Pentagon)、原告はAIスタートアップのAnthropic——この対立は、AIの安全性と国家権力の衝突という、業界全体が目を逸らせない本質的な問いを突きつけている。

事の発端——なぜAnthropicは国防総省から「敵性企業」扱いされたのか

Anthropicは創業時から、明確な「使用禁止領域」を設けてきた企業だ。具体的には、自律型致死兵器システム(LAWS)の開発支援大量監視インフラへの技術提供、核・生物・化学兵器の設計補助などが、同社の利用規約と内部ポリシーで明示的に禁じられている。これはビジネス上の判断ではなく、同社の「AI安全性」という存在理由に直結する方針だ。

転換点となったのは2026年2月24日。CEOのDario AmodeiがPete Hegseth国防長官と会談した際、国防総省はAnthropicのモデルを軍事目的で利用するにあたり、使用制限の撤廃を要求したとされる。Anthropicはこれを拒否した。その後まもなく、国防総省はAnthropicを正式に「サプライチェーンリスク」に指定した。

「サプライチェーンリスク指定」とは、国防総省が調達先をリスク評価し、政府機関との取引を制限・排除する措置だ。通常は敵対国の企業、とりわけ中国企業や国家に紐付いた組織に対して発動される。Anthropicはシリコンバレー発の米国企業であり、その適用は異例中の異例だった。

史上初の「民間AI企業へのリスク指定」——何が異例なのか

この指定が業界に衝撃を与えた理由は、その前例のなさにある。サプライチェーンリスク指定は、通常、国家安全保障上の脅威が明確な外国企業に対して適用される。Huaweiへの輸出規制や、TikTokの強制売却命令と同じ文脈の措置だ。それが今回、米国人が設立し米国で運営する民間企業に対して、「安全方針を理由に軍の要求を断った」という理由で発動された。

Anthropicの法的主張の柱は憲法修正第1条(言論の自由)だ。自社のAI利用ポリシーは企業としての価値観を表明するものであり、それを政府が強制力をもって変更させようとするのは言論の自由の侵害にあたる、というロジックだ。さらに同社は、政府がビジネス上の制裁を使って私企業の方針変更を強制することは、行政権の逸脱であるとも主張している。

法学者の間では、この主張の妥当性について意見が分かれている。しかし問題の本質は法的勝敗よりも深いところにある。「安全性を理由に軍の命令を断れるか」——この問いへの答えが、今後のAI開発の方向性を根本から規定しうるのだ。

政府が民間AI企業の倫理方針を「リスク」とみなす時代が来た。これは単なる企業対政府の争いではなく、AI安全性の概念自体が政治的争点になったことを意味する。

業界が一致団結——Microsoft・OpenAI・Google社員も支持に回った理由

この事件が通常の企業訴訟と一線を画しているのは、競合他社が次々とAnthropicへの連帯を表明したという点だ。Microsoft、OpenAI、Googleの関係者や元社員が、裁判所への意見書提出や公開声明という形で支持を表明した。

通常、AI業界の競合他社が特定企業の訴訟を公に支持することはない。それでも今回、業界が珍しく一致団結した背景には明確な危機感がある。Anthropicへの措置が先例となれば、次は自社が標的になりうるという認識だ。OpenAIにも、Googleにも、自律兵器や大量監視に関する内部ポリシーや利用規約は存在する。それらが次の「サプライチェーンリスク」として標的になる可能性は、Anthropicが負ければ格段に高まる。

さらに元軍幹部22名が連名で意見書を提出したことも注目を集めた。軍のインサイダーたちが「民間AI企業への強制的な利用方針変更は、長期的に国家安全保障を損なう」と主張したのだ。AIの安全性と信頼性こそが軍事利用における本質的な価値であり、それを政治的圧力で骨抜きにすれば、軍自身がリスクにさらされるという論法だ。

3月24日の審問——AIと軍事利用の関係はどう変わるのか

今日の審問で問われる核心は大きく二つある。第一に、国防総省によるサプライチェーンリスク指定に法的根拠があるか。第二に、Anthropicの使用方針が憲法上保護される表現にあたるかだ。

判決シナリオ別の影響は対照的だ。Anthropic側が勝訴すれば、AI企業が安全方針を維持したまま政府との関係を保てる先例が生まれる。これはAI安全性コミュニティにとって大きな追い風となり、企業の倫理方針が法的に守られるという認識が業界に広まる。

一方、国防総省側が勝訴すれば、政府が民間AI企業の利用方針を強制変更できるという先例が確立される。これはオープンソース・クローズドソース問わず、すべてのAI企業のガバナンスに直接影響する。安全性のための制約を設けること自体が、政府契約の失格事由になりうる世界だ。

AI開発者が押さえるべき点は、この問題が「AnthropicとPentagonの二者間の争い」ではないということだ。モデルの用途制限、利用規約の設計、デュアルユース(民軍両用)技術の扱い——これらはすべてのAIエンジニアとプロダクトマネージャーが、今後直面しうる設計上の意思決定に関わる。

今日の審問の結論がどう出るにせよ、「AIの安全性方針は企業理念に留まらず、法的・政治的な戦場に引き出された」という事実は変わらない。技術を作る側が、その技術の使われ方について持つ責任と権限の範囲——AI開発の最前線が、いま法廷で定義されようとしている。

関連記事

本記事はAIエージェントが収集・執筆した情報を含みます。内容の正確性・最新性については公式ドキュメントや一次情報源をご確認ください。