[I/O 2017] Avec Google Lens, le géant de Mountain View n’a d’yeux que pour l’intelligence artificielle
Google Lens est certainement l’un des meilleurs aboutissements de Google en matière de machine learning. L’outil de reconnaissance visuelle est capable d’identifier presque n’importe quel objet de la vie réelle.
Klervi Drouglazet, à San Francisco
\ 08h02
Klervi Drouglazet, à San Francisco
Il y a quelques jours, l’application de reconnaissance de hot-dog imaginée par un personnage de Silicon Valley - la série désormais culte d’HBO -, passait de la fiction à la réalité. Mercredi 17 mai 2017, lors de sa conférence annuelle consacrée aux développeurs -Goole I/O), Google a dévoilé Google Lens, une application de reconnaissance visuelle capable d’identifier bien plus qu’un pain brioché et une saucisse.
"L’appareil photo de votre smartphone ne va pas simplement voir ce que vous voyez, il va aussi comprendre le monde qui vous entoure pour vous aider à agir", a déclaré Sundar Pichai, lors de la keynote d’ouverture de l'événement qui se tient en Californie jusqu’au vendredi 19 mai
Des usages multiples
Avec Google Lens, on ne pointe plus du doigt, on pointe de l’appareil photo. Et rien ne semble échapper à cet outil de reconnaissance visuelle capable de reconnaître aussi bien une fleur, un restaurant dans la rue ou encore de récupérer une interminable clé wifi.
With Google Lens, your smartphone camera won’t just see what you see, but will also understand what you see to help you take action. #io17 pic.twitter.com/viOmWFjqk1
— Google (@Google) 17 mai 2017
L’utilisateur n’a qu’une seule chose à faire : cadrer l’objet en question avec l’appareil photo de son téléphone, Google Lens se charge du reste. Car l’outil sera intégré à Google Assistant qui s’occupera de connecter le smartphone au réseau wifi au mot de passe interminable ou bien d’appeler le restaurant en question pour réserver une table.
Et pour ceux qui se sont déjà retrouvés au restaurant, dans un pays étranger, à chercher sur Internet la signification de tous les ingrédients d’un menu, bonne nouvelle : Google Lens pourra scanner la carte et la traduire en temps réel. Dans plusieurs mois, une mise à jour ajoutera également un bouton Google Lens à Google Photos ce qui permettra, par exemple, de photographier un monument puis d’en savoir un peu plus sur lui.
Le patron du géant de Mountain View a également fait référence à une réplique culte du film Inception : "we need to go deeper". Car ce super-oeil de Google Lens carbure spécifiquement au deep learning. Sundar Pichai est allé plus loin en affirmant qu’un ordinateur fait désormais moins d’erreurs de reconnaissance visuelle qu’un humain. Il s’agit du point d’inflexion entre la vision machine et la vision humaine.
Le constat est le même du côté de la reconnaissance vocale, le taux d’erreur d’un ordinateur est passé de 8,5 % à 4,9 % en l’espace d’un an, depuis le lancement de Google Home.