Google は 2026 年 2 月下旬、Android 向けジェスチャー検索機能「かこって検索(Circle to Search)」の新機能として「複数オブジェクトの画像認識」を発表し、「Pixel 10」「Pixel 10 Pro」「Pixel 10 Pro XL」「Pixel 10 Pro Fold」と Samsung「Galaxy S26」シリーズ向けに展開を開始しました。
これまで「かこって検索」は 1 枚の画像に対する 1 回の認識から、1 枚の画像内にある複数オブジェクトの認識に進化したわけですが、これは当然ながら、ベースとなる AI モデル「Gemini」の進化によるものです。より高度な「Gemini」AI モデルが導入されたことにより、画像とユーザーの質問を一緒に分析し、マルチモーダルに推論できるようにななりました。

これまでの「かこって検索」「Google レンズ」といった Google 画像検索は、たとえば魅力的なコーディネート画像の中から「このスニーカーを探す」や、あるいはおしゃれなリビングの画像から「このランプを探す」といったように、1 回につき 1 つのアイテムを指定して検索する仕様でした。しかし最新の AI モデルが実装された Google 画像検索では、画像全体を複雑なシーンとして捉え、個々の要素を分解して認識し、帽子 / ジャケット / 靴など、画像に写っている複数のアイテムの検索結果を一度の操作で同時に引き出し、ひとつの分かりやすい回答としてまとめて提示することが可能になりました。
この複数オブジェクトの同時認識を支えているコア技術は、「Fan-out(ファンアウト:扇状に広げる)」と呼ばれるプロセスです。ユーザーが画像検索をかけた瞬間、「Gemini」が画像内の複数のオブジェクトとユーザーの意図を推論しつつ複数の検索を同時並行で実行し、数十億の WEB 結果(ライブラリ)から、まさに扇状に検索結果を広げていきます。
そして、その広がった膨大な情報を AI が数秒で整理してユーザーに返してくれるわけです。これが、「かこって検索」新機能「複数オブジェクトの画像認識」の本質となります。
Source:Google
