Pourquoi il ne faut pas sous-estimer les lunettes IA de Meta

Meta accélère sur les lunettes connectées avec des Oakley pour les sportifs et surtout les Meta Ray-Ban Display, ses premières lunettes dotées d'un écran et accompagnées d'un bracelet neuronal pour des interactions d'un nouveau genre. L'entreprise est à l'avant-garde d'une nouvelle vague d'appareils personnels infusés d'intelligence artificielle qui vont au-delà du smartphone. Les autres Big Tech vont suivre.

Partager
Pourquoi il ne faut pas sous-estimer les lunettes IA de Meta

Meta a officiellement lancé ses premières lunettes connectées dotées d'un écran le 17 septembre, les Meta Ray-Bay Display. Il ne s'agit pas de lunettes de réalité augmentée : l'écran n'est présent que sur la lentille droite des lunettes, et n'est compatible qu'avec les corrections comprises entre -4 et +4 dioptries.

Un affichage qui fonctionne même en plein soleil

Il couvre 20° du champ de vision pour une résolution de 600 x 600 pixels (élevée pour sa taille : 42 pixels par degré) et une luminosité allant de 30 à 5000 nits (ajustée automatiquement), ce qui lui permet d'être utilisable même en extérieur par grand soleil. Il utilise un projecteur et un guide d'onde conçus sur-mesure par Meta. Fait notable : il est quasi-invisible pour un observateur, avec seulement 2% de la lumière émise perceptible de l'extérieur.

L'écran a de multiples usages : lecture de messages textes (notamment WhatsApp), appels vidéo, navigation guidée, résultats de recherche fournis par l'assistant Meta AI, mire pour cadrer ses photos et vidéos (un vrai plus), visualisation desdites photos et vidéos, contrôle du son et de la musique, etc. Il permet aussi de nouveaux usages pour Meta AI, comme faire du sous-titrage en temps réel lors d'une conversation, si besoin en traduisant la langue parlée vers celle de l'utilisateur.

Une conférence un peu particulière

Des applications WhatsApp, Facebook Messenger et Intagram (uniquement pour l'envoi de messages) seront disponibles au lancement, de même que Spotify pour écouter de la musique. Mark Zuckerberg en a fait la démonstration sur scène, avec deux cafouillages notables : un chef cuisinier n'a pas pu avoir d'aide pour sa recette (car en activant l'assistant dans la vidéo il a activé ceux de tout le bâtiment et fait saturer le serveur de test) et Mark Zuckerberg lui-même a échoué 5 fois de suite à répondre à un appel car l'interface a buggé.


Si ces écueils ont donné lieu à quelques moqueries sur les réseaux sociaux, ils sont inhérents aux démonstrations réelles sur scène (exercice notoirement périlleux), qui ont plus de caractère que les évènements intégralement pré-enregistrés (ce que fait désormais Apple). Néanmoins, Meta a pris l'habitude depuis quelques années de n'avoir que ses employés et quelques influenceurs qui lui sont inféodés dans l'assistance, ce qui donne des applaudissements nourris toutes les 20 secondes et donnait à l'évènement une atmosphère bizarre.

Un mode de contrôle révolutionnaire

L'autre nouveauté de ces lunettes par rapport aux Ray-Ban Meta classiques, sans écran, est le "bracelet neuronal" (nom officiel : Meta Neural Band) qui les accompagne. Il permet d'interagir avec le système par le biais de micro-gestes qu'il détecte à l'aide de capteurs électromyographiques très sensibles (on parle "d'EMG de surface"). En clair, il lit les signaux électriques que le cerveau envoie aux doigts. 

Cela permet par exemple à l'utilisateur de sélectionner des options dans un menu en pinçant le pouce et le majeur, ou de faire défiler une liste en faisant glisser son pouce sur ses phalanges en ayant le poing fermé. Un "double tapotement" du pouce appelle l'assistant Meta AI, tandis que le contrôle du volume sonore peut être réglé en mimant de tourner un bouton virtuel, comme sur un ampli à l'ancienne. Lors de sa présentation, Meta s'est même évertué à montrer qu'on peut écrire des messages en faisant mine "d'écrire en l'air" comme si on tenait un stylo.


Cette technologie provient du rachat de CTRL-Labs en 2019, et Meta est très en avance sur le sujet. Il s'agit d'une prouesse technologique qui pourrait faire la différence face aux futurs produits concurrents d'Apple et du duo Samsung/Google, qui arriveront sur le marché dès l'année prochaine.

Caméra et fonctionnalités audio toujours mises en avant

Outre ces nouvelles modalités visuelles et gestuelles, les Meta Ray-Ban Display possèdent les mêmes capacités que les lunettes sans écran de Meta : micros et haut-parleurs discrets, plus une caméra 12 mégapixels similaire à celle de l'ancien modèle de Ray-Ban Meta (elle capture des vidéos 1080p à 30 ips), mais moins bonne que celle du nouveau modèle (voir ci-dessous). Décevant. 

Le petit pavé tactile sur la branche droite est aussi toujours présent, et l'assistant Meta AI est toujours au centre de l'expérience, avec des fonctionnalités vocales comme l'envoi de messages audio ou la dictation de messages. Les lunettes peuvent être utilisées pour écouter de la musique ou des podcasts, partager une vidéo sur WhatsApp ou faire de la diffusion en direct sur Instagram, demander à l'assistant des informations sur ce que l'on regarde (par le biais de la caméra), se faire lire des notifications depuis son smartphone quand on les reçoit, etc.

Meta a également fait la démonstration d'une fonctionnalité dont il avait déjà parlé par le passé : la possibilité d'atténuer le bruit ambiant et d'augmenter les paroles de la personne avec qui on conserve. Baptisé "Focus Conversation", cette capacité sera disponible pour toutes les lunettes Ray-Ban Meta et les Meta Ray-Ban Display.

Trop épaisses pour passer inaperçues...

Les Meta Ray-Ban Display pèsent 69 grammes contre 52 g pour les Ray-Ban Meta et 45 g pour des Ray-Ban Wayfarer standard. Un poids somme toute acceptable étant donné la technologie embarquée. Celle-ci se fait cependant sentir au niveau de l'épaisseur des branches. Là où les Ray-Ban Meta sont vraiment très proches de lunettes classiques, les Ray-Ban Display ont des branches massives... Il faut bien mettre toute cette technologie quelque part.

Le prototype que Google et Samsung ont présenté au mois de mai était beaucoup plus svelte, mais cela ne veut pas forcément dire grand chose à un stade de préproduction. C'est d'ailleurs l'un des principaux défis pour l'adoption de ces appareils : les lunettes de vue modernes sont souvent très fine et légères, trop pour y mettre l'électronique nécessaire, même miniaturisée à l'extrême.

...Et trop coûteuses pour le grand public

Après leur look, le prix élevé sera sans doute le principal frein à leur adoption par rapport aux modèles plus basiques. Dans une interview accordée à Bloomberg, Andrew Bosworth, CTO de Meta et directeur de la division Reality Labs, se montre confiant sur le fait que Meta vendra plus de 100 000 paires de Meta Ray-Ban Display d'ici à fin 2026.

L'entreprise travaille en parallèle au développement de véritables lunettes de réalité augmentée, avec un écran pour chaque oeil et la possibilité de cartographier l'environnement en 3D et d'y placer des objets virtuels. Leur lancement pourrait avoir lieu en 2027. Leurs caractéristiques techniques seront moindres que celles du prototype Orion, mais la vraie question à nos yeux sera surtout leur taille, encore une fois.

Arrivée en France début 2026

Les Meta Ray-Ban Display ont 6 heures d'autonomie avec un usage varié d'après Meta, mais cela nous semble optimiste et il faudra attendre les tests indépendants pour en avoir le coeur net. Leur boîtier (qui s'aplatit et se déplie de façon très intelligente) les recharge automatiquement et contient environ 24 heures d'autonomie (quatre recharges). Meta parle de "30 heures d'autonomie au total". De son côté, le bracelet dispose de 18 heures d'autonomie et est certifié IPX7 pour la résistance à l'eau.

Les Meta Ray-Ban Display seront disponibles à partir du 30 septembre aux Etats-Unis et y coûteront 799 dollars (bracelet de contrôle inclus). Elles arriveront sur le marché français début 2026, et il faudra s'attendre à un prix minimum de 899 euros. Elles sont disponibles en deux coloris, noir et sable (beige), et en deux tailles. Peu importe le style ou la correction éventuellement appliquée sur les verres, elles seront équipées de verres transition (qui s'obscurcissent au soleil) pour aider à la lisibilité de l'écran.

La nouvelle génération de Ray-Ban Meta arrive...

La sortie des Ray-Ban Display ne signifie pas que Meta néglige ses "lunettes IA" dépourvues d'écran. L'entreprise a d'abord annoncé la seconde génération des Ray-Ban Meta (oui, un coup Meta est devant, un coup derrière, il faut suivre). Le seul changement est qu'elles bénéficient d'une caméra améliorée qui capture des vidéos en 3K, comme les Oakley Meta HSTN dévoilées en juin.

Plus précisément, elles peuvent filmer en 3K à 30 ips, en 1440p à 30 ips, ou en 1200p à 60 ips. La durée d'enregistrement continue maximale est de 3 minutes. Leur autonomie théorique a aussi été étendue à huit heures, contre quatre pour le premier modèle. Leur boîtier dispose de 48 heures de recharge. Elles sont disponibles dès maintenant pour 419 euros, tandis que le premier modèle reste disponible à 329 euros. Une augmentation de prix difficile à avaler pour une simple amélioration de la caméra.

...Ainsi que les Oakley Meta Vanguard pour les sportifs

Elle a ensuite et surtout présenté les Oakley Meta Vanguard, des lunettes pour sportifs basés sur le design Sphaera de la marque (qui entoure un peu le visage) qui sont beaucoup plus ambitieuses que les Oakley Meta HSTN. Elles sont équipées d'une caméra centrée (plutôt que sur l'une des branches) pour un meilleur champ de vision (122° contre 120°) et de haut-parleurs plus puissants (de 6 dB). De quoi écouter sa musique même en faisant du jet ski, d'après Mark Zuckerberg.

La caméra capable de capturer en 3K à 30 ips et 1080p à 60 ips pendant 3 minutes, ainsi qu'en 1080p à 30 ips pendant 5 minutes. Elles disposent aussi d'un mode ralenti en 720p à 120 ips, de même qu'un mode "hyperlapse". Enfin, une option de stabilisation électronique des vidéos est disponible (au détriment du champ de vision).

Les Oakley Meta Vanguard sont par ailleurs compatibles avec les applications Garmin (dont les montres connectées sont très populaires) et Strava pour permettre aux utilisateurs de connaître leurs statistiques en temps réel. Les possesseurs d'une montre Garmin peuvent même programmer une capture vidéo automatique lorsque certaines performances sont atteintes.

Sur le plan optique, leurs verres sont fabriqués avec la technologie Prizm, propre à la marque Oakley, censée renforcer les couleurs et le constrate. Elles sont aussi garanties IP67. Les Oakley Meta Vanguard seront commercialisées le 21 octobre pour 549 euros. Elles sont disponibles en quatre coloris.

Meta ouvre l'accès à ses lunettes aux applications tierces

Meta veut créer une plateforme avec ses lunettes, et cela implique la présence d'applications tierces. Elle fait un peu dans cette direction en sortant un kit de développement qui permettra à des applications mobiles d'accéder aux lunettes (aussi bien les Display que celles sans écran). Elles auront accès à la caméra, au micro et aux haut-parleurs. L'utilisateur devra autoriser chaque application à y accéder. Les développeurs intéressés peuvent demander accès sur le site de Meta.

A noter que Meta AI ne sera pas accessible, ni l'écran des Meta Ray-Ban Display, ni les commandes du bracelet. La raison selon Meta tient à la puissance trop limitée de la puce Qualcomm qui équipe l'appareil et ne permet pas de faire tourner d'applications généralistes n'ayant pas été hyper-optimisées.

Microsoft, Logitech Streamlabs, Twitch et Disney ont eu accès au kit de développement en avant-première. Microsoft s'en sert pour son application Seeing AI à destination des malvoyants, tandis que Logitech et Twitch l'utilisent pour faire de la diffusion vidéo en direct. Disney étudie son potentiel pour créer des guides de visite personnalisés dans ses parcs d'attraction.

Pourquoi des lunettes ?

Pourquoi des lunettes connectées ? L'objectif avec ces appareils est de déporter une partie de l'usage des smartphones vers des appareils plus "centrés sur l'humain", capables de voir ce qu'on voit et d'entendre ce qu'on entend pour mieux nous servir, et favorisant des méthodes d'interaction plus naturelles, comme les gestes ou la voix. Le smartphone ne va évidemment pas disparaître de sitôt, ces lunettes en nécessitant un pour fonctionner, mais une utilisation alternative pourrait émerger. Le fait qu'un à deux milliards d'êtres humains en portent déjà pour corriger leur vue faciliterait (en théorie) l'adoption de versions connectées.

Pour Meta, il y a derrière ces efforts la volonté de s'émanciper de l'étau que représentent iOS et Android. Ses réseaux sociaux sont essentiellement consultés sur smartphones, et ses applications sont soumises aux décisions d'entreprises qui sont aussi ses concurrents. Mark Zuckerberg veut sa propre plateforme, et il est convaincu que ces lunettes sont le canal parfait pour des assistants intelligents qui soient vraiment personnalisés.

Il n'est pas seul. Apple, Google, Samsung et Amazon travaillent sur des produits concurrents, ainsi que d'innombrables start-up, et sans oublier Snap, qui y croit aussi depuis longtemps. Même OpenAI pourrait s'y mettre ! Après l'acquisition de la start-up de Jony Ive, la coqueluche de l'IA étudierait différents formats d'objets connectés, dont des lunettes.

Une informatique simplifiée... mais à quel prix ?

Car derrière ce nouveau type d'appareil pour l'informatique personnelle, on trouve la question du changement de paradigme entre les boutiques d'application mobiles qui ont émergé à la fin des années 2000 et une interface utilisateur qui se ferait essentiellement par le biais d'un assistant, les applications étant réduites à des API pour accéder à tel ou tel service. C'est la vision de toutes ces entreprises, chacune voulant évidemment détenir l'assistant que tout le monde utilisera, car cela fera de lui le "gatekeeper" ultime.

Or, si on ne peut qu'applaudir l'émergence d'une informatique qui se conforme enfin à l'humain plutôt que l'inverse, il nous semble qu'il faut en revenche déplorer cette perte de contrôle de l'utilisateur sur ce que fait "sa" machine. Quels programmes, quels fichiers, avec quel accès et pour quel résultat. De la même manière qu'avec les services de streaming et d'achats en ligne (Netflix, YouTube, Spotify, Steam), vous n'êtes jamais vraiment propriétaire de ce que vous achetez, ni n'avez la garanti d'y avoir encore accès dans 5 ans.

Ou qu'avec le web moderne, les informations ne proviennent que de sources monolithiques (Google, ChatGPT, Wikipedia...) qu'il est impossible de rectifier si elles sont erronées. On en viendrait presque à regretter les micro ordinateurs, encyclopédies papier et cassettes VHS des années 80.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

CHERCHE TALENTS NUMERIQUE

Les formations USINE DIGITALE

Toutes les formations

ARTICLES LES PLUS LUS