[I/O 2017] Avec Google Lens, le géant de Mountain View n’a d’yeux que pour l’intelligence artificielle

Google Lens est certainement l’un des meilleurs aboutissements de Google en matière de machine learning. L’outil de reconnaissance visuelle est capable d’identifier presque n’importe quel objet de la vie réelle.

Partager
[I/O 2017] Avec Google Lens, le géant de Mountain View n’a d’yeux que pour l’intelligence artificielle

Il y a quelques jours, l’application de reconnaissance de hot-dog imaginée par un personnage de Silicon Valley - la série désormais culte d’HBO -, passait de la fiction à la réalité. Mercredi 17 mai 2017, lors de sa conférence annuelle consacrée aux développeurs -Goole I/O), Google a dévoilé Google Lens, une application de reconnaissance visuelle capable d’identifier bien plus qu’un pain brioché et une saucisse.

"L’appareil photo de votre smartphone ne va pas simplement voir ce que vous voyez, il va aussi comprendre le monde qui vous entoure pour vous aider à agir", a déclaré Sundar Pichai, lors de la keynote d’ouverture de l'événement qui se tient en Californie jusqu’au vendredi 19 mai

Des usages multiples

Avec Google Lens, on ne pointe plus du doigt, on pointe de l’appareil photo. Et rien ne semble échapper à cet outil de reconnaissance visuelle capable de reconnaître aussi bien une fleur, un restaurant dans la rue ou encore de récupérer une interminable clé wifi.

L’utilisateur n’a qu’une seule chose à faire : cadrer l’objet en question avec l’appareil photo de son téléphone, Google Lens se charge du reste. Car l’outil sera intégré à Google Assistant qui s’occupera de connecter le smartphone au réseau wifi au mot de passe interminable ou bien d’appeler le restaurant en question pour réserver une table.

Et pour ceux qui se sont déjà retrouvés au restaurant, dans un pays étranger, à chercher sur Internet la signification de tous les ingrédients d’un menu, bonne nouvelle : Google Lens pourra scanner la carte et la traduire en temps réel. Dans plusieurs mois, une mise à jour ajoutera également un bouton Google Lens à Google Photos ce qui permettra, par exemple, de photographier un monument puis d’en savoir un peu plus sur lui.

Le patron du géant de Mountain View a également fait référence à une réplique culte du film Inception : "we need to go deeper". Car ce super-oeil de Google Lens carbure spécifiquement au deep learning. Sundar Pichai est allé plus loin en affirmant qu’un ordinateur fait désormais moins d’erreurs de reconnaissance visuelle qu’un humain. Il s’agit du point d’inflexion entre la vision machine et la vision humaine.

Le constat est le même du côté de la reconnaissance vocale, le taux d’erreur d’un ordinateur est passé de 8,5 % à 4,9 % en l’espace d’un an, depuis le lancement de Google Home.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS