「Siriはなぜこんなにも使えないのか」——iPhone登場から約15年、この嘆きに終止符が打たれようとしている。Appleは2026年1月、Google Geminiとの提携を正式発表。3月末のiOS 26.5ベータから新しいSiriの姿が明らかになる。これはApple史上最大規模のAI刷新であり、コンシューマー向けAIの地図を大きく書き換える出来事だ。
なぜGeminiなのか
AppleがGeminiを選んだ背景には、2つの要因がある。
ひとつは技術格差の現実だ。Apple Intelligenceの初期バージョンは機能が限定的で、GPT-4やGemini Proとの差は明らかだった。自社モデルの開発を続けながらも、フロントエンドとして外部の最先端モデルを組み合わせるアプローチを選んだ。
もうひとつは既存の関係だ。AppleとGoogleはiOSにおけるデフォルト検索エンジン契約(年間200億ドル規模とされる)を結んでいる。AI時代においても、この関係をより深い技術統合にまで発展させた形だ。
「Geminiのモデルとクラウド技術が将来のApple Foundationモデルの基盤となる、数年間の協業」——Google・Apple 共同声明より
新Siriで何ができるようになるか
1. 画面の「読み取り」と操作
新Siriはデバイスの画面内容を把握できる。Safariに表示されたレストランのページを見ながら「今週の土曜日に予約して」と話しかければ、Siriが自律的に予約フォームを操作する。カレンダーへのフライト情報追加、メールの返信内容の提案なども画面コンテキストを踏まえて行われる。
2. アプリをまたいだコンテキスト理解
従来のSiriはアプリの境界を越えた操作が苦手だった。新Siriは「LINEで送った住所を地図で開いて、そこまでの経路を調べて」のような複数アプリにまたがる指示を理解し、実行できる。
3. 長い会話の継続
Geminiの大規模コンテキストウィンドウ(最大100万トークン)を活かし、会話の履歴を保持したまま複数ターンにわたる指示のやり取りが可能になる。「さっき言った件で、もう少し詳しく」が通じるSiriへ。
4. より自然な発話理解
Geminiのマルチモーダル推論能力を活かし、曖昧な表現・方言・混在した言語(英語と日本語のちゃんぽん等)への対応も改善が見込まれる。
プライバシーはどう守られるのか
最も気になる点は「Appleのプライバシー哲学とGoogleの利用がどう両立するか」だろう。
Appleの説明によれば、Geminiモデルの処理はApple Private Cloud Compute(PCC)上で行われる。PCCはAppleが管理するサーバー群で、処理後のデータはGoogleのインフラには渡らないとしている。また、Gemini連携が必要なクエリのみを外部に送り、個人識別情報を含まない形に加工して送信するアーキテクチャを採用する。
ただし、第三者による独立した検証はこれからであり、特に欧州のGDPR規制下での運用については引き続き注視が必要だ。
業界への影響
この提携は「AI覇権競争に新たな軸」をもたらす。
iPhoneのアクティブユーザーは世界で約12億人とされる。Gemini搭載Siriが全ユーザーに展開されれば、Geminiは一気にコンシューマーAIの最大プラットフォームのひとつになる。これはOpenAIのChatGPTにとって正面からの競合を意味する。
OpenAIも昨年、ChatGPT×Siri連携を発表していたが、Geminiとの提携はその優先度を下げる可能性がある。マイクロソフト・Copilotとの関係にも影響が出てくるかもしれない。
まとめ
- AppleがSiriにGemini(1.2兆パラメータ)を採用、iOS 26.5ベータで初披露
- 画面認識・アプリ横断操作・長文コンテキストの3点が主な新機能
- 処理はApple Private Cloud Compute上で行い、プライバシー担保をうたう
- 世界12億人のiPhoneユーザーへのリーチがGeminiの存在感を塗り替える
iOS 26.5ベータは3月末から開発者向けに提供予定。一般公開は4〜5月が目安となっている。新しいSiriがどこまで実用的かは、実際に触れてみてからが本番だ。当編集部でも続報をレポートする。