「検索社会」に“大変動”が訪れる? 『Google I/O 2025』で発表された4つの重要トピックスを解説

Googleは2025年5月20日・21日の2日間にかけて、開発者会議『Google I/O 2025』を開催した。近年の同会議ではAIに関する発表が多かったのだが、今年もAIが話題の中心となった。本稿は、そのなかで発表された事柄について、今後のGoogleのビジネスに大きな影響を与えると見られる「検索」「生成AIアプリ」「動画生成」そして「AI搭載製品」の4トピックに焦点をしぼってまとめていく。
Deep Searchやライブ機能で検索を拡張する「AI Mode」
1つめのトピックである検索では、生成AIによる情報収集を検索に積極活用した「AI Mode」が発表された(※1)。生成AIが台頭した2023年初頭頃には、Google検索と生成AIによる情報提示は競合するものであるという見方が少なくなかった。しかしながら、2024年の『Google I/O』で発表された「AIによる概要」によって、検索と生成AIが共存できることが示された。そして、AI Modeでは生成AIによって“検索を拡張する”ビジョンが明らかとなった。
AI Modeは従来の「すべて」や「画像」といった検索結果表示変更ボタンの隣に表示され、以下のような検索が実行できるようになる。
- 入力された検索文をサブトピックに細分化する技術「クエリ ファンアウト」。これを活用することで、従来のGoogle検索より深いウェブ検索が可能となり、より有益な情報を提供する。
- 数百の検索を同時に実行したうえで、検索した情報を分析したレポートを表示する「Deep Search」。
- カメラで撮影した被写体について、AIと音声会話しながら検索する「ライブ機能」。
- 「今度の土曜日の野球の試合の最安値のチケットを2枚買って」のようなタスクの実行をサポートするエージェント機能。
- 自分の写真をアップロードするだけで、何十億ものアパレル商品に関するバーチャル試着が可能な「AI Modeのショッピング体験」。
- 過去の検索結果にもとづいてパーソナライズされた検索結果の提供。
- たとえば2つの野球チームのホームアドバンテージ(ホーム球場でより勝利する確率)を視覚的に比較するようなグラフを伴う検索結果の提供。
なおAI Modeは『Google I/O 2025』以降、アメリカから順次提供される。日本を含むアメリカ以外の国と地域への同サービスの展開スケジュールは、不明である。
以上のようなGoogleが推進する”生成AIによる検索の拡張”の背景を知るには、現代ビジネスが2025年5月13日に公開した記事が参考になる(※2)。同記事では、Googleの検索ビジネスがChatGPTをはじめとする競合他社の生成AIによって脅かされていることをまとめている。こうした脅威に対して、同社はまさに生成AIによって対抗しようとしているのだ。
Geminiアプリの“大幅な進化”でAIエージェント時代への準備も進行
Googleが開発する対話型生成AIアプリ『Gemini』についても、大幅な進化が発表された(※3)。新たに可能となる機能は、以下の通りである。
- 前述のAI Modeにおける「ライブ機能」のようなカメラを通じてAIと会話できる「Gemini Live」。
- 緻密なディテールと美しいテキストを生成できる画像生成AI「Imagen 4」と、音声生成も可能な動画生成AI「Veo 3」が実装。ただし、後者に関してはアメリカの「Gemini Ultra」ユーザーに限定。
- AI Modeにおける「Deep Search」をGeminiからも利用可能に。近日中にGoogle DriveやGmailのユーザデータもリサーチ対象となる。
- ソースコードの視覚化やプロンプト入力によるアプリやゲームの生成を行う機能「Canvas」が利用可能に。
- Chromeの言語設定を英語にしているアメリカの「Google AI Pro」および「Google AI Ultra」サブスクリプションユーザーを対象に、デスクトップ版『Gemini』の提供を開始。
- 『Gemini』がクイズを生成することで学習をサポート。クイズの回答は『Gemini』にフィードバックされ、弱点分野に焦点を当てたフォローアップクイズも提供。
また前述の機能群を紹介するなかで名前の挙がっていた新しい生成AIサブスクリプションプラン「Google AI Pro」と「Google AI Ultra」の提供も始まった。前者では後述する動画制作アプリ『Flow』などが使え、後者では実験的なAI機能への早期アクセス権が得られる。
『Google I/O 2025』におけるGoogleのスンダ―・ピチャイCEOの発言をまとめた記事では、GeminiアプリのAgent Modeに関する言及がある(※4)。このモードを使えば、たとえばGeminiがユーザーの探している不動産を見つけてくれるようなAIエージェントの機能を利用できる。同機能の実験版は、近日中に一部のユーザーを対象に提供予定だ。
Agent Modeの開発に伴って、Gemini APIとSDKは、AIエージェントがさまざまなサービスにアクセスするための規格「MCP(Model Content Protocol)」に対応したことも発表された。対話型生成AIの「Claude」シリーズを開発するAnthropicが開発したこの規格は、2025年3月にはOpenAIが採用し(※5)、同年5月にはMicrosoftもサポートを発表した(※6)。
MCP 🤝 OpenAI Agents SDK
You can now connect your Model Context Protocol servers to Agents: https://t.co/6jvLt10Qh7
We’re also working on MCP support for the OpenAI API and ChatGPT desktop app—we’ll share some more news in the coming months.
— OpenAI Developers (@OpenAIDevs) March 26, 2025
以上のように「MCP」がAI業界全体でサポートされつつあることは、AIエージェント時代の本格的な幕開けを予感させる。この予感にしたがえば、近い将来、生成AIは“話し相手”から“仕事をこなしてくれる仲間”、もっと言えば“同僚”になるだろう。




















