3月26日のAI業界は「安全か、商業か」という問いが複数の戦場で同時に問われた日だ。法廷ではAnthropicがPentagonと向き合い、モデル競争ではGPT-5.4・Gemini 3.1・Grok 4.20が三つ巴でベンチマークを塗り替え、ビジネスの現場ではAnthropicが企業市場70%を獲得するという逆説的な結果が明らかになった。そして日本では富士通が防衛AI開発を受注し、「AIに何をさせてよいか」という問いが日米共通の議題となりつつある。
1. AnthropicとPentagonの法廷闘争——AI安全方針が試される歴史的裁判
Anthropic、「自律兵器への利用拒否」をめぐりPentagon訴訟——3/24公聴会で裁判官が政府批判 2026年3月
AnthropicはClaudeを「自律兵器システム」等の用途に使用することを利用規約で明示的に禁じている。これを受けてPentagon(米国防総省)は同社を「サプライチェーンリスク」に指定。Anthropicは3月9日、この指定が憲法修正第1条(言論の自由)に違反するとして違憲訴訟を提起した。
3月24日の公聴会では、担当判事が政府側の主張を繰り返し厳しく批判。「民間企業が自社製品の使用目的に関する方針を持つことは正当だ」という論点が焦点となり、AI企業の倫理条項が法的保護を受けるかという前例なき問いが浮上している。
「AIの利用規約が憲法問題に発展したのは初めてのケースだ。この判決はシリコンバレー全体のモデル利用規約の書き方を変えるかもしれない」——業界観測筋(要約)
2. GPT-5.4 / Gemini 3.1 / Grok 4.20——主要モデルリリースの比較
OpenAI GPT-5.4 — OSWorldで人間超え、105万トークンコンテキスト 2026年3月5日
OpenAIが3月5日にGPT-5.4を正式リリースした。Standard・Thinking・Proの3バリアントを展開し、最大105万トークンのコンテキストウィンドウを提供する。最大の注目点はOSWorld-Vベンチマークでのスコア75%だ——人間ベースラインの72.4%を上回り、AI史上初めて「デスクトップ操作において人間を超えた」モデルとして記録されることになった。
エージェントとしての実用化が現実の射程に入ってきており、RPA(ロボティック・プロセス・オートメーション)の代替需要をターゲットとしたエンタープライズ展開が各社で検討されている。
Google Gemini 3.1 Pro — 16ベンチマーク中13首位、GPT-5.4と並走 2026年3月
Gemini 3.1 Proが主要16ベンチマーク中13項目でリードを記録した。Artificial Analysis Intelligence Indexではトップ評価のGPT-5.4 Proと57点で並ぶという接戦を演じている。コンテキストウィンドウは100万トークンに対応し、テキスト・画像・動画・音声のマルチモーダル処理においても競合をリードする。
OpenAI対Anthropicの法廷闘争という構図の中で、Googleが「漁夫の利」を得ているという見方がアナリストの間で広まっている。Gemini 3.1 Flash-Liteも同時公開され、コスト競争力でも存在感を示した。
xAI Grok 4.20 Beta2 — 4エージェント並列協調アーキテクチャを実装 2026年3月3日
xAIのGrok 4.20 Beta2が3月3日にリリースされた。最大の特徴は2月17日に初導入した4エージェント並列協調アーキテクチャの改善だ。複数のエージェントが同時に問題の異なる側面を検討し、最終回答を合成するこのアプローチは「単一モデルの限界をチームで超える」設計思想を体現している。
Beta2では指示追従精度・科学テキスト生成・複数画像同時処理が強化された。Elon Muskが主導するxAIとしては、OpenAI・Google・Anthropicの三極構造への本格参入を示す布石となっている。
3. ビジネス市場でAnthropicがOpenAIを逆転——「安全性戦略」が商業的勝利をもたらした逆説
企業向けAI新規導入の約70%をAnthropicが獲得——評価額190億ドルに 2026年3月
企業向けAIの新規導入市場において、Anthropicが約70%のシェアを獲得したとする分析が報告された。評価額は190億ドルに到達し、OpenAIの250億ドル超には及ばないものの、ビジネス現場での実採用率という指標では逆転が起きている。
Pentagonとの法廷闘争が象徴するように、Anthropicは「AIに何をさせないか」を明確に公言してきた。この姿勢が企業のコンプライアンス担当者や法務部門に「安全に導入できるベンダー」と評価されたと見られる。「安全を守ると損をする」という通説を覆す実証データとして、業界内で広く引用されている。
参照: Android Headlines — Anthropic vs OpenAI Business Market Share 2026
4. 日本発:富士通のAI幕僚開発——防衛AIは世界共通の議題へ
富士通が防衛装備庁から「AI幕僚」開発を受託——自衛隊指揮官の意思決定を支援 2026年3月
富士通が3月、防衛装備庁から自衛隊指揮官の意思決定支援AIエージェント(通称「AI幕僚」)の委託研究を受注したことが明らかになった。戦場情報の分析・選択肢の提示・リスク評価を行うAIエージェントの設計が主な内容とされている。
Anthropic対Pentagonの訴訟が「民間AI企業が軍事利用を拒否できるか」という問いを浮上させた同時期に、日本では逆方向の動きが起きている。「AIに判断を委ねる範囲をどこまで許容するか」は、もはや特定国の問題ではなく民主主義国家共通の問いとなりつつある。
日米比較の視点でいえば、Anthropicは「ノー」と言って市場を獲得し、富士通は「イエス」と言って国家から受注した。どちらの選択が長期的に「正しい」かは、まだ誰にもわからない。
5. OpenAI Codex Security——セキュリティエンジニアの仕事はどう変わるか
OpenAI Codex Security研究プレビュー公開——自律的に脆弱性を検出・修正提案 2026年3月6日
OpenAIが3月6日に「Codex Security」の研究プレビューを公開した。コードベースを自律的にスキャンして脆弱性を検出し、修正パッチの提案まで一貫して行うエージェントだ。SQLインジェクション・認証バイパス・依存関係の脆弱性など、従来は専門エンジニアが手動で行ってきた作業の一部をAIが代替する。開発者向けAPIも同時提供され、CI/CDパイプラインへの組み込みが可能となっている。
DevSecOps(開発・セキュリティ・運用の統合)という概念がより現実的になった。「セキュリティエンジニアが不要になる」という極論ではなく、「AIが一次スクリーニングを担い、人間は高度な判断に集中できる」という役割分担の変化として理解するのが適切だ。
6. 編集部の視点:「ツールとしてのAI」から「判断主体としてのAI」へ
今週の動向を俯瞰すると、共通の軸が浮かび上がる。GPT-5.4がOSWorldで人間を超えた事実、Grok 4.20が複数エージェント協調設計を実装した事実、富士通AI幕僚が指揮官の意思決定を支援しようとしている事実——いずれも「AIが判断の一端を担う」方向への歩みだ。
一方でAnthropicは「Claudeに自律兵器判断をさせない」という方針を法廷で争ってまで守ろうとしている。矛盾しているように見えて、これは同じコインの表裏だ。「判断主体としてのAIをどう設計し、どこで止めるか」——この問いこそが、2026年春のAI業界の中心テーマになっている。
今日のまとめ
3月26日を貫くテーマは「AIが判断主体として試される日」だ。Anthropicは法廷で自社の安全原則を守り、それがビジネスでの勝利にも繋がった。GPT-5.4・Gemini 3.1・Grok 4.20はベンチマークを競い合いながら、それぞれ「デスクトップ操作」「マルチモーダル」「エージェント協調」という異なる方向性で実用域を広げている。日本では富士通が防衛AIに踏み込み、米国とは異なる文脈でAIの軍事利用が現実化しつつある。
「何ができるか」から「何をさせるか」へ——AI開発の主戦場が技術から倫理・法律・政策へと拡張し始めた春だ。