Google Pixel、AIによるタスク自動化と高度な検索機能を搭載
2026年3月3日 (火)
- •「かこって検索」に複数オブジェクト認識と衣類のバーチャル試着機能が追加され、ショッピング体験が向上
- •Geminiがベータ版機能として、食料品の注文や配車予約などのバックグラウンドタスクを自動化
- •リアルタイムの詐欺検出やPixel Watch向けの独立型地震アラートなど、オンデバイスの安全機能が拡張
Googleによる2026年3月の「Pixel Drop」は、オンデバイスAIが単なるチャットUIを超え、システムへと深く統合され成熟したことを示している。なかでも注目すべきは「かこって検索」の進化であり、新たに導入された複数オブジェクト認識によって複雑な視覚シーンを詳細に分解できるようになった。ユーザーは庭に咲く個別の植物から特定の衣類まで、写真内のあらゆる要素を識別できるほか、生成AIツールを用いて自分の写真やデジタルモデル上で衣服を試着し、視覚化することも可能だ。
Geminiの役割はバックグラウンドでのタスク実行へと拡大し、サードパーティ製アプリを介した食料品の注文や配車の予約、日常的な買い物をアシスタントが代行する。これに呼応するように、新機能「Magic Cue」はメッセージアプリ内の会話の流れを汲み取り、文脈に合わせてレストランの推奨情報を提示する。複数のアプリを行き来する必要をなくすことで、ユーザーの認知負荷を軽減し、本来の作業への集中を維持させる狙いがある。
アップデートでは、AIツールの国際的な展開とリアルタイムの安全性も強調されている。音声パターン分析を用いて詐欺電話を特定する「詐欺検出」機能は、日本やドイツを含む新たに6つの地域で提供が開始された。同時に、Pixel Watchのエコシステムには独立型の地震アラートや拡張された衛星SOS機能が追加されている。AI生成によるホーム画面のカスタマイズ機能と合わせ、利便性とセキュリティの両面を重視した包括的なハードウェア体験の構築を目指している。