Recevez chaque jour toute l'actualité du numérique

x

Comment Google va faire passer un cap à la recherche par image

Google a dévoilé mercredi les nouveautés à venir pour son moteur de recherche. Au programme : plus de recherche visuelle et contextuelle grâce à Google Lens et son nouveau modèle de machine learning MUM.
Twitter Facebook Linkedin Flipboard Email
×

Comment Google va faire passer un cap à la recherche par image
Google va faire passer un cap à la recherche par image. © Google/Facebook

"Chaque réponse amène une nouvelle question". C'est dans cet esprit que Google a présenté, lors de sa conférence dédiée à la recherche mercredi 29 septembre, plusieurs nouveautés mettant l'intelligence artificielle à contribution pour entrer dans une nouvelle ère de la recherche en ligne, plus visuelle et plus contextuelle.

Accompagner l'utilisateur dans sa recherche
Au-delà d'apporter des réponses pertinentes aux questions de l'utilisateur, Google cherche à lui inspirer de nouvelles recherches. Il affichera par exemple dans les prochains mois des encadrés "Things to know" ("choses à savoir") renvoyant à des sous-thèmes liés à un mot-clé. Ces "choses à savoir" pourront prendre la forme de résultats textuels, d'images ou de vidéos.

Dans le même ordre d'idée, le moteur ajoutera bientôt une fonction "Affiner la recherche" et "Elargir la recherche", ainsi qu'un bloc "Sujets associés" pour les recherches de vidéos.

Nouveaux outils de recherche visuelle
La technologie de reconnaissance visuelle Google Lens va quant à elle passer à une nouvelle étape. Google Lens sera intégré "prochainement" dans l'application Google sur les iPhones aux Etats-Unis, et dans le navigateur Chrome sur PC dans le monde entier, pour permettre d'activer directement une recherche visuelle à partir d'une page web.
 


Elle offrira également de nouvelles possibilités. L'utilisateur pourra combiner recherche visuelle et textuelle, en sélectionnant par exemple un motif dans la section de recherche visuelle et en demandant au moteur de lui trouver des vêtements comportant ce motif. A partir d'une image, le moteur pourra également renvoyer vers des magasins vendant les objets présents dans l'image.

Autre fonctionnalité bien pratique, la possibilité de poser une question au moteur en "montrant" un objet plutôt qu'en l'appelant par son nom. Google donne l'exemple d'un internaute qui chercherait à faire réparer un dérailleur sans savoir que cette pièce de vélo porte ce nom. Il prend alors son dérailleur en photo, et demande au moteur "comment réparer ceci ?".
 


Plus de fonctionnalités pour améliorer l'expérience de shopping
Dans l'onglet Shopping, les résultats afficheront les produits disponibles dans les magasins à proximité, grâce à un nouveau filtre "en stock", ou encore des vêtements dans le même style que le produit recherché initialement. Des efforts qui tentent de rapprocher l'expérience de shopping en ligne de celle du lèche-vitrine, quand l'inspiration du moment remplace la recherche ciblée.

Une grande partie de ces annonces repose sur le nouveau modèle de machine learning dévoilé plus tôt dans l'année par Google, batpisé MUM. Le site The Verge résume bien la nouvelle philosophie du moteur avec MUM : "l'information délivrée par Google n'est plus juste un classement d'informations pertinentes, mais un condensé de ce que ses machines comprennent en écumant le web".

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.