SiriとChatGPTの連携でiPhoneはさらに“パーソナル”に 高まる「Apple Intelligence」への期待

 Appleは6月の『WWDC(世界開発者会議)』で同社の新たなAIテクノロジー「Apple Intelligence」を発表した。これはiPhone・iPad・Mac上で動作するAIであり、WWDCの発表ではプライバシーを保護しながら「パーソナルなアシスタント」として機能することが謳われた。特にエキサイティングなのは、SiriとOpenAIが開発・提供する「ChatGPT」の連携機能だ。

 「AIPC」という言葉を耳にするようになった昨今。インターネットサービスとしてではなく、専用のプロセッサとソフトウェアをかけ合わせてハードウェアの内部でAIを駆動するスタンドアローン型の仕組みが脚光を浴びているが、じつはAppleはこうした潮流にいち早く取り組んできた先駆者である。

 2017年に発売された『iPhone 8』『iPhone X』の時点でAppleは搭載SoC「A11 Bionic」に機械学習専用のハードウェア「Neural Engine」を内包している。その後2020年に発表したMシリーズのプロセッサにおいてもNeural Engineの力強さを喧伝しており、映像分析、音声認識、画像処理などのタスク処理において活用していることを強調してきた。iPhone・iPad・Macのアーキテクチャは数年前より「AIと統合している」と言ってよい。そしてこうした統合が「Apple Intelligence」によっていま以上にキャッチーに示されることになる。

Apple

 『WWDC』の発表の中で、Apple Intelligenceは非常にパーソナルなAI”であることが繰り返し語られている。ユーザーの習慣や日々の行動を考慮し、関連性の高い機能を提供すると説明されており、具体的には文章校正・画像生成といった機能、チャットAIの機能がOSのもろもろの機能と統合される。

 文章構成の機能はブログやメールを書く際にその文章の誤字・脱字を直すのにはもちろん、ビジネスシーンにマッチした文章に調節するなど、トーン自体をAIに揃えてもらうこともできる。

Apple

 画像生成の機能は「写真」アプリと連携し、特定の人物のイラストを簡単に生成できる。生成する画像は「スケッチ」「イラストレーション」「アニメーション」の3つのテイストから選ぶことができ、こうした生成機能はOS全体で利用できるという。

Apple

 こうした生成技術は「Stable Diffusion」や「ChatGPT」の前例を見れば目新しいものではない。Apple Intelligenceの真骨頂は、こうした技術がOSのあらゆる部分で“パーソナルに”連携するところにある。

 Apple Intelligenceはメールやカレンダーのイベントなど、ユーザーが見ている画面の内容を参照できるように設計されており、たとえばApple Intelligenceは「お母さんと○○さんと私が写っている写真を全部見せて」「妻がこの前送ったポッドキャストを再生して」といったざっくりした命令を理解する。ユーザーの現在の状況と自然言語を理解して、最適なアプリ・行動へと導くことができるのだ。

 AppleはApple Intelligenceの具体的な活用例を下記のような形で紹介している。

「会議の予定が午後の遅い時間に変更され、娘の演劇の発表会に間に合うかわからない時には、関連する個人データをApple Intelligenceが処理して私をアシストしてくれます。 私の娘が誰かを理解し、娘が数日前に送ってきた発表会の詳細、会議の場所と時間、さらにはオフィスと劇場間の交通状況の予想を理解できます」

 Apple Intelligenceの設計にあたり、パーソナルアシスタント「Siri」も統合されることになる。Siriは自然言語での会話で前後の文脈を理解するほか、豊富な製品知識を有し、システム上の様々な機能に関する質問に答えられるようになる。たとえば、「いまメッセージを書いて、明日送るにはどうすればいい?」といった質問を理解し、手順を説明するといったことも可能になる。

Apple

 こうした高度なパーソナライズをおこなうにも関わらず、Appleは同機能の実行時には個人データを収集することはないという。基本的にApple Intelligenceの演算はスタンドアローンで行われるが、高度な計算が必要な場合には「Private Cloud Compute」機能によりプライバシーとセキュリティを維持したまま外部サーバーで処理を実行できる。

 また、AppleとOpenAIのパートナーシップにより「Siri」と「ChatGPT」「GPT-4o」が連携することは特に衝撃的なニュースだろう。ライバルであるMicrosoftが「Copilot in Windows」においてGPT-4を導入、OSとの統合を進めているのに対し、AppleはSiriのアップデートという形で「GPT-4o」の導入をアピールした。発表によれば、SiriがChatGPTの専門知識を利用できるようになり、SiriはChatGPTが良いアイデアを持っているかもしれないと判断した場合はユーザーに指示を仰ぎ、質問を共有していいか確認したうえで回答を表示することになるとのことだ。

Apple

 Apple IntelligenceはiOS 18、iPadOS 18、macOS Sequoiaの機能としてリリース予定で、リリース当初は『iPhone 15 Pro』『iPhone 15 Pro Max』『M1』以降のプロセッサを搭載したiPadとMacで使用できる。動作要件がここまで限定されるのは、演算をハードウェア内部でおこなう必要があるため、Neural Engineの性能で足切りが行われているからだろう。

 あらためてこの発表を振り返った所感としては「iPhoneがOSレベルでチャットAIをサポートする」というところにこのニュースのインパクトがあると感じる。スタート時には動作するハードウェアは限定されるものの、Siriと深く統合したチャットAIがユーザーのもとに届けられる意義は大きい。

 「コンピューターへの入口」が新たに整備されることで製品知識の少ないユーザーの学習難度も大きく下がるはずだ。これはVisionOSにも似たユーザビリティの変革になり得る。サービス開始時点では英語での利用のみがサポートされるが、日本語で使えるようになる日が楽しみだ。引き続きアップデート情報を注視していきたい。

G7で創設、いまや53ヵ国に広まる「広島AIプロセス」とは? 世界のAI規制・ガイダンスの現状を解説

AI技術は日進月歩で進化しているが、その進歩に追いつこうとするようにして、AI規制とガイダンスも整備されつつある。2024年にお…

関連記事