スマホメーカー同士による「AI戦争」が日に日に激化している。
オンデバイス――すなわち、スマホのプロセッサーでの処理に対応するAIの開発は、同時に「音声アシスタントの進化」をも促している。
「OK,Google」や「Hey,Siri」などの呼びかけで起動する音声アシスタントは、いまや高度に進化したAIに歩調を合わせてユーザーの個人秘書のようになろうとしている。
だが、その音声アシスタント分野での明暗が、AndroidとiOSで大きく分かれているようだ。
服のコーディネートもお任せ!
現在のAIは「マルチモーダル」に対応しようとしている。
これは、写真や音声、文章などの異なる情報源を同時に認識し、処理する機能を指す。Googleの開発した生成AIモデル「Gemini」に対応した音声会話システム「Gemini Live」は、2025年3月中に「画面共有」と「ライブ動画ストリーミング」のサービスを開始する予定だ。
このシステムによって、どんな使い方ができるのか。たとえば、通販サイトで服を買おうと考えているとする。ちょうどいいジーンズを見つけたが、今度はそれに合ったジャケットを見つける必要が出てきた。そんな時、Gemini Liveを使って「このジーンズに合う上着は何?」と口頭で質問する。この際、ジーンズの画像を共有していれば、Geminiは画像と音声での質問を統合して情報分析する。
これはいわば、AIがファッションコーディネーターになってくれる用途であると言えるだろう。