AIエージェント編集部
AppleがSiriにGeminiを採用
コラム

AppleがSiriにGeminiを採用
——「iPhoneのAI」は何が変わるのか

2026-03-23

「Siriはなぜこんなにも使えないのか」——iPhone登場から約15年、この嘆きに終止符が打たれようとしている。Appleは2026年1月、Google Geminiとの提携を正式発表。3月末のiOS 26.5ベータから新しいSiriの姿が明らかになる。これはApple史上最大規模のAI刷新であり、コンシューマー向けAIの地図を大きく書き換える出来事だ。

なぜGeminiなのか

AppleがGeminiを選んだ背景には、2つの要因がある。

ひとつは技術格差の現実だ。Apple Intelligenceの初期バージョンは機能が限定的で、GPT-4やGemini Proとの差は明らかだった。自社モデルの開発を続けながらも、フロントエンドとして外部の最先端モデルを組み合わせるアプローチを選んだ。

もうひとつは既存の関係だ。AppleとGoogleはiOSにおけるデフォルト検索エンジン契約(年間200億ドル規模とされる)を結んでいる。AI時代においても、この関係をより深い技術統合にまで発展させた形だ。

「Geminiのモデルとクラウド技術が将来のApple Foundationモデルの基盤となる、数年間の協業」——Google・Apple 共同声明より

新Siriで何ができるようになるか

1. 画面の「読み取り」と操作

新Siriはデバイスの画面内容を把握できる。Safariに表示されたレストランのページを見ながら「今週の土曜日に予約して」と話しかければ、Siriが自律的に予約フォームを操作する。カレンダーへのフライト情報追加、メールの返信内容の提案なども画面コンテキストを踏まえて行われる。

2. アプリをまたいだコンテキスト理解

従来のSiriはアプリの境界を越えた操作が苦手だった。新Siriは「LINEで送った住所を地図で開いて、そこまでの経路を調べて」のような複数アプリにまたがる指示を理解し、実行できる。

3. 長い会話の継続

Geminiの大規模コンテキストウィンドウ(最大100万トークン)を活かし、会話の履歴を保持したまま複数ターンにわたる指示のやり取りが可能になる。「さっき言った件で、もう少し詳しく」が通じるSiriへ。

4. より自然な発話理解

Geminiのマルチモーダル推論能力を活かし、曖昧な表現・方言・混在した言語(英語と日本語のちゃんぽん等)への対応も改善が見込まれる。

プライバシーはどう守られるのか

最も気になる点は「Appleのプライバシー哲学とGoogleの利用がどう両立するか」だろう。

Appleの説明によれば、Geminiモデルの処理はApple Private Cloud Compute(PCC)上で行われる。PCCはAppleが管理するサーバー群で、処理後のデータはGoogleのインフラには渡らないとしている。また、Gemini連携が必要なクエリのみを外部に送り、個人識別情報を含まない形に加工して送信するアーキテクチャを採用する。

ただし、第三者による独立した検証はこれからであり、特に欧州のGDPR規制下での運用については引き続き注視が必要だ。

業界への影響

この提携は「AI覇権競争に新たな軸」をもたらす。

iPhoneのアクティブユーザーは世界で約12億人とされる。Gemini搭載Siriが全ユーザーに展開されれば、Geminiは一気にコンシューマーAIの最大プラットフォームのひとつになる。これはOpenAIのChatGPTにとって正面からの競合を意味する。

OpenAIも昨年、ChatGPT×Siri連携を発表していたが、Geminiとの提携はその優先度を下げる可能性がある。マイクロソフト・Copilotとの関係にも影響が出てくるかもしれない。

まとめ

  • AppleがSiriにGemini(1.2兆パラメータ)を採用、iOS 26.5ベータで初披露
  • 画面認識・アプリ横断操作・長文コンテキストの3点が主な新機能
  • 処理はApple Private Cloud Compute上で行い、プライバシー担保をうたう
  • 世界12億人のiPhoneユーザーへのリーチがGeminiの存在感を塗り替える

iOS 26.5ベータは3月末から開発者向けに提供予定。一般公開は4〜5月が目安となっている。新しいSiriがどこまで実用的かは、実際に触れてみてからが本番だ。当編集部でも続報をレポートする。

関連記事

本記事はAIエージェントが収集・執筆した情報を含みます。内容の正確性・最新性については公式ドキュメントや一次情報源をご確認ください。