Le programme ARIA de Meta présente sa version 2 : qu’en apprendre pour le futur des lunettes ?

Meta vient donc de présenter la nouvelle version de son projet ARIA dédié à la recherche et centré sur des lunettes de réalité augmentée. Les évolutions proposées nous en disent beaucoup sur les pistes que suit Meta pour l’évolution de ses appareils et en particulier sur les fonctionnalités des futurs modèles Orion. Je vous propose de prendre quelques minutes pour creuser ce sujet.

Les lunettes du projet ARIA

Pour remettre un peu de contexte, le programme Aria de Meta est une initiative de recherche lancée en 2020, visant à accélérer le développement de la réalité augmentée (AR) et de l’intelligence artificielle (IA) en adoptant une perspective centrée sur l’humain. L’objectif principal est de découvrir de nouvelles manières d’interagir avec le monde et de le percevoir, en recueillant des données du point de vue de l’utilisateur. Le programme a plusieurs composantes dont la principale est une paire de lunettes de réalité augmentée.

Meta vient donc de proposer une nouvelle version de ces lunettes qui, vous le noterez, ne comporte pas d’écran contrairement au projet Orion. La première confirmation que nous pouvons y voir concerne le facteur de forme. Les lunettes pèsent 75 grammes, se plient comme des montures classiques et sont faites pour une utilisation de 6 à 8 jours. Rien de nouveau de ce côté puisque les différents constructeurs semblent converger vers la limite des 80 grammes comme poids « acceptable » et 40 grammes comme poids « cible » pour des lunettes de tous les jours. De même, la durée d’utilisation de 8 heures / 1 jour est fixée sur celle des smartphones que nous rechargeons tous les soirs.

Sur les nouveaux modèles, les capacités des lunettes à mieux comprendre leur environnement sont améliorées par des caméras plus puissantes, capables de faire du suivi de l’environnement (6DoF). Nous avons vu dans plusieurs articles que cette captation de l’environnement était un point important pour alimenter l’IA qui va vous délivrer du service. C’est pour améliorer cet aspect que ces lunettes vont augmenter la quantité de calculs embarqués, que se soit pour le traitement des données de l’environnement, pour leur interprétation par l’IA. C’est une démarche assez nouvelle par rapport à la plupart des modèles qui transfert la charge dans le cloud. En plus d’une limitation de la latence et de la dépendance aux réseaux disponibles, on peut imaginer une meilleure protection des données personnelles.

L’interaction avec l’utilisateur est également renforcée. Outre le système de microphone qui est optimisé pour faciliter la reconnaissance des commandes vocales, nous voyons apparaitre deux nouvelles fonctions sur les lunettes : le suivi oculaire et le capteur de fréquence cardiaque. Le suivi oculaire n’est pas une nouveauté puisqu’on le trouvait déjà dans les modèles de Magic Leap et que plusieurs partenariats de Tobii ou Pubpil Labs permettaient de le proposer sur des modèles tiers. Mais l’intention de Meta est de faire de cette donnée un élément incontournable d’interaction. Même sans écran dans les lunettes, le logiciel est capable de comprendre ce que vous regardez et donc d’interpréter votre commande de manière beaucoup plus intuitive.

L’apparition du capteur de fréquence cardiaque est particulièrement intéressante, car on en trouve assez peu sur les lunettes de ce type, à l’exception de quelques modèles dédiés au sport comme les Solos Smart Glasses ou les ENGO Eyewear. Ce choix technologique ouvre la porte à des fonctionnalités inédites, où les réponses physiologiques deviennent un levier d’action, à la fois dans les domaines de la santé et de l’interaction homme-machine (IHM). Coté santé, on peut retrouver dans les lunettes des services qui ressemblent à ceux des montres connectées : détection précoce du stress ou des troubles cardiaques, suivi de la charge cognitive ou de la fatigue mentale, etc. On voit vite arriver le coach santé et bien être ! Du côté de l’interface aussi, les possibilités sont immenses puisque l’IA embarquée va ainsi pouvoir prendre en compte l’état émotionnel du porteur. Imaginez un assistant qui parle plus lentement ou affiche moins d’informations s’il vous trouve trop stressé, ou qui mesure votre réceptivité à certaines sollicitations ou publicité (vous n’imaginez pas qu’on va se passer de ce débat). Dans tous les cas, c’est un élément de personnalisation qui pourra rendre vos lunettes bien plus indispensables que votre smartphone.

Vous l’avez compris, avec ces évolutions, Meta prépare le terrain pour des expériences où l’IA et l’AR seront omniprésentes, capables de comprendre et d’anticiper nos besoins sans nécessiter d’interactions complexes. L’entreprise cherche à poser les bases d’une réalité augmentée plus fluide, plus naturelle et, surtout, mieux intégrée à notre quotidien. Je pense que cela donne le ton pour les caractéristiques des lunettes de réalité augmentée qui vont arriver sur le marché ces prochaines années.

Pour les professionnels du secteur et en particulier les créateurs de contenu, les possibilités de personnalisation et d’interactions ouvrent des perspectives intéressantes, mais comportent également un côté plus ambigu. Si l’IA et les données collectées sont sur la plateforme du constructeur de lunettes, comment capitaliser sur la connaissance de l’utilisateur ? Comment rendre robuste son application et limiter sa dépendance ? Des questions qui vont rapidement se poser !

Leading Innovation ++ on the Field ++ with a Purpose | #AugmentedReality #Industry #DataScience #AI #CultivatedMeat #FutureOfFood | PhD Astrophysics
Articles créés 401

Un commentaire pour “Le programme ARIA de Meta présente sa version 2 : qu’en apprendre pour le futur des lunettes ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut