Google、かこって検索を刷新し複数オブジェクトの同時検索を実現
- •Googleは「かこって検索(Circle to Search)」をアップデートし、1枚の画像内にある複数のオブジェクトを同時に特定できる機能を追加した。
- •新技術「ビジュアルクエリ・ファンアウト」により、複数の視覚的アイテムを並行して検索し、相互参照することが可能になった。
- •Samsung Galaxy S26およびPixel 10のユーザー向けに、統合されたバーチャル試着機能が提供される。
Googleは、視覚検索の限界を押し広げようとしている。「かこって検索(Circle to Search)」を、単一のアイテムを調べるツールから、シーン全体を包括的に分析するエンジンへと進化させたのだ。ユーザーは、リビングルームやサンゴ礁といったシーン全体を囲むことで、複数のオブジェクトを同時に特定し、詳細を調べることができる。これにより、これまでの断片的な検索から脱却し、水槽内の異なる魚の共生関係を解説したり、インフルエンサーのコーディネートを個別の購入可能なアイテムへと分解したりといった、画像全体の文脈をAIが理解できるようになった。
このアップグレードを支えているのは、Gemini 3モデルに組み込まれた高度なプランニング機能だ。Gemini 3は、1枚の画像検索を一つの複雑なミッションとして処理する。単一のスキャンを行う代わりに、システムは「ビジュアルクエリ・ファンアウト」と呼ばれるプロセスを実行する。これは、画像内の主要なセグメントを特定し、複数の検索を並行して行い、その結果を一つのまとまった回答へと統合する手法だ。この多段階のプロセスにより、AIはアイテム同士の関連性を結びつけることが可能になり、例えばすべての家具を個別に切り取らなくても、特定のデザインに合う似た家具を見つけ出すことができる。
さらにGoogleは、検索インターフェースにバーチャル試着機能を直接統合することで、インスピレーションから購入までの距離を短縮している。Pixel 10やSamsung Galaxy S26などの対応デバイスでは、ユーザーは服を探すだけでなく、自分のデジタルアバターでその服がどのように見えるかを即座に確認できる。この統合は、好奇心がそのまま購買行動へとつながる、よりシームレスなAI駆動型小売体験に向けた大きな一歩となるだろう。