Soutenez

La recherche multiple va doper les possibilités offertes par Google et Lens

Photo: iStock

Lors de sa conférence annuelle pour développeurs, Google a dévoilé comment le multisearch, qui consiste à combiner les recherches à la fois dans du texte et dans de l’image, s’apprête à bouleverser les habitudes des mobinautes. Concrètement, il sera prochainement possible d’élargir le champ de ses recherches sur Google et sur Lens, à partir de simples photos ou d’éléments filmés.

Aujourd’hui, dans l’application Google, il est déjà possible d’effectuer des recherches simultanément avec des images et du texte. Bientôt, il sera possible de trouver des informations supplémentaires, locales.

Cela signifie qu’il sera possible d’utiliser n’importe quelle photo et d’ajouter la requête «près de chez moi» pour afficher les commerces proposant ces produits. Cela pourra aussi bien concerner une robe, un article de décoration ou encore un plat. L’idée est évidemment de rendre la recherche la plus naturelle possible.

Pour illustrer le champ de ces possibilités, Google prend l’exemple d’une photo d’un plat de cuisine trouvé sur Internet, dont vous ne connaissez même pas le nom. La recherche multiple va faire en sorte de trouver un restaurant près de chez vous le proposant à ses clients.

Dans ce cas précis, le moteur de Google analyse des millions d’images et d’avis publiés par sa communauté de contributeurs Maps. Ce type de recherche multiple sera disponible dans le courant de l’année en anglais. Pour les autres langues, il faudra se montrer encore un peu patient.

Mais le plus spectaculaire avec ces recherches multiples concerne incontestablement l’application Lens. Aujourd’hui, il est possible d’identifier un produit ou une personne grâce à cette application. Demain, il sera possible d’obtenir d’autres informations, détaillées, directement sur l’écran de votre smartphone, en réalité augmentée.

Ce que Google qualifie «l’exploration de scène» permettra par exemple de choisir en rayon un produit selon ses propres critères. Ainsi, en visionnant via l’appareil photo de son smartphone des barres chocolatées, il sera possible de «filtrer» celles contenant certains ingrédients ou bien encore d’autres trop faibles en cacao, selon ses propres critères. Là encore, cette fonctionnalité sera introduite progressivement.

L’actualité de la conférence Google I/O, ce sont aussi d’étonnantes lunettes de traduction instantanée en réalité augmentée et de nombreuses nouveautés concernant Maps.

Inscrivez-vous à notre infolettre et recevez un résumé, dès 17h, de l’actualité de Montréal.

Articles récents du même sujet

Mon
Métro

Découvrez nos infolettres !

Le meilleur moyen de rester brancher sur les nouvelles de Montréal et votre quartier.