Écosystèmes augmentés : repenser l’objet pour penser l’usage

L’été arrive et c’est le moment propice pour se poser quelques questions “de fond” sur l’évolution de la réalité augmentée. J’aimerais en particulier que nous évoquions le cas des appareils utilisés pour vivre les expériences de réalité augmentée. Jusqu’à récemment, on pensait nécessairement au smartphone, à la tablette et, en particulier pour le secteur professionnel, à des lunettes. Les systèmes de réalité augmentée projetée restent quant à eux assez confidentiels. Or depuis environ deux ans, le secteur connaît des évolutions assez notables avec la disponibilité des lunettes connectées utilisant l’IA et le changement stratégique de certains acteurs comme Microsoft qui a décidé d’abandonner sa gamme Hololens

Je vous propose donc une courte réflexion sur l’évolution des appareils “portables” à notre disposition pour vivre des expériences de réalité augmentée et, par extension, qui seront disponibles pour héberger les futurs assistants motorisés par l’IA. N’hésitez pas à partager votre propre point de vue en commentaire.

Nous transportons une nombre limité d’objets sur nous et en ajouter un est un défi immense.

Les mêmes objets, mais d’autres usages

Si l’on observe attentivement l’évolution de notre relation aux objets numériques, on remarque une constante : les objets ne disparaissent pas vraiment, ils se transforment. La montre, par exemple, ne s’est pas volatilisée avec l’arrivée des téléphones portables. Elle s’est réinventée. Aujourd’hui, la montre connectée mesure nos pas, notre rythme cardiaque, nous prévient d’un message ou d’un appel. Mais fondamentalement, elle reste une montre (dans sa forme en tout cas). C’est un objet que l’on connaît, que l’on accepte socialement, que l’on porte depuis des générations.

Le projet Orion de Meta reprend les lunettes et le bracelet dans leur proposition.

Pour les autres objets, les évolutions ont été plus progressives. Le bracelet connecté, par exemple, reprend la forme d’un bijou ancien, mais en y ajoutant des capteurs. Les bagues connectées, encore peu répandues, suivent le même chemin. Quant aux lunettes, elles commencent seulement à intégrer des technologies plus poussées : écouteurs intégrés, caméras, affichage tête haute.

Le smartphone, lui, fait un peu figure d’exception. Il n’a pas transformé un objet existant, il en a fusionné plusieurs : le téléphone, le GPS, l’appareil photo, le lecteur MP3, la console de jeux, et bien d’autres encore. Il est devenu notre outil numérique central, et il s’est imposé comme une évidence en à peine vingt ans.

Ce qui est frappant, c’est que les nouveaux usages s’appuient toujours sur des formes connues. L’innovation prend rarement l’apparence d’un objet totalement inédit. Elle s’insère dans des pratiques déjà bien établies, en espérant les améliorer, les enrichir. Et c’est sans doute là que réside la difficulté pour qu’un nouvel appareil trouve sa place dans notre quotidien. Il ne suffit pas qu’il soit innovant. Il faut aussi qu’il soit adoptable, qu’on puisse l’intégrer naturellement à nos gestes, à notre manière de vivre.

Les tentatives pour trouver d’autres supports

Plusieurs tentatives ces dernières années ont exploré de nouvelles pistes comme le AI Pin de Humane , le Rabbit R1 et plus récemment Johnny Ive, l’ancien designer vedette d’Apple, et OpenAI rêvent de créer un tout nouvel objet, un « compagnon » numérique qui utiliserait l’intelligence artificielle générative pour nous aider au quotidien. Aujourd’hui AI Pin et R1 sont oubliés et le “compagnon” reste un mystère. 

Du coté des appareils de réalité augmentée, aucune proposition réellement nouvelle n’est venue depuis le projet Sixth Sens développé au MIT en 2009 par Pranav Mistry. Même le AI Pin proposé en 2024 semblait reprendre cette idée. 

Même en allant au-delà du “wearable”, on peut constater que la RA dans sa version projetée n’a pas vraiment connue beaucoup de succès. Elle est présente dans usages très particuliers comme les instructions d’assemblage de Arkite ou les murs interactifs de Neoexpériences.

Les solutions les plus probables

Les lunettes

Parmi tous les objets que nous portons, les lunettes occupent une place à part. Elles sont naturellement proches des yeux, là où se concentre une grande partie de notre perception du monde. Si on y ajoute des technologies comme des caméras, des micros, et un petit écran, on obtient un outil puissant : une interface directe entre l’humain et son environnement.

Les lunettes connectées, qui deviendront rapidement des « lunettes de réalité augmentée », sont capables d’afficher des informations dans le champ de vision, de reconnaître ce qui nous entoure, et même de réagir au contexte en temps réel. Un assistant intégré pourrait ainsi nous indiquer le nom d’une personne que l’on croise, traduire une affiche écrite en chinois ou nous alerter sur un danger imminent.

Des exemples concrets existent déjà. Vous connaissez le succès des lunettes Ray-Ban Meta et j’ai évoqué à plusieurs reprises sur ce site le développement de l’offre dans ce domaine. La valeur ajoutée de ces lunettes est claire : elles permettent de garder les mains libres, de recevoir des informations sans détourner le regard, et d’interagir avec l’IA de manière fluide. On entre alors dans une nouvelle ère : celle des assistants contextuels, qui ne se contentent plus de répondre à des questions, mais anticipent, observent, accompagnent.

Est-ce que ces lunettes sont le meilleur support pour la RA ? Peut-être. Mais d’autres pistes commencent à émerger, et elles pourraient bien être plus discrètes.

Les écouteurs

Une vision des prochains modèles d’airpods (source Mohit Singh/Beebom )

Si les lunettes connectées sont encore en phase d’adoption, les écouteurs, eux, sont déjà bien installés dans notre quotidien. Beaucoup d’entre nous les portent plusieurs heures par jour, pour écouter de la musique, téléphoner ou suivre un podcast. Ce sont des objets discrets, acceptés, et surtout déjà dans nos oreilles. Quel merveilleux endroit pour nous parler !

Apple explore cette voie avec ses AirPods, dont les prochaines versions pourraient intégrer des caméras miniatures pour observer l’environnement. Couplés à une IA générative, ces écouteurs pourraient bientôt vous dire : « Tu viens de croiser Paul, tu veux lui envoyer un message ? » ou « Attention, le feu est rouge, ne traverse pas ». Voici un parfait usage de la réalité augmentée sonore !

Un écosystème 

En observant toutes ces évolutions, une tendance claire se dessine : La RA de demain et son assistant IA ne seront probablement pas dans un objet unique, mais dans une combinaison intelligente de plusieurs dispositifs. On parle ici d’un écosystème personnel, où chaque objet joue un rôle complémentaire.

Le smartphone, dans cette configuration, reste le cerveau de l’opération. Il centralise les données, fournit la puissance de calcul, héberge l’IA ou se connecte à elle via le cloud. Les lunettes et les écouteurs deviennent les « capteurs » et les « haut-parleurs » de cette intelligence, chacun adapté à une modalité d’interaction : visuelle, auditive, contextuelle.

Ce modèle hybride présente un avantage majeur : il repose sur des objets déjà acceptés et largement diffusés. Pas besoin d’introduire un nouvel appareil ex nihilo, il suffit de rendre plus intelligents et plus utiles les objets que nous avons déjà pris l’habitude de porter.

Mais attention, cela ne veut pas dire qu’un objet totalement nouveau ne pourra pas émerger. Comme toujours, l’innovation surprend là où on ne l’attend pas, souvent portée par une conjonction de facteurs : maturité technologique, qualité du design, pertinence des usages, et un peu de magie dans l’exécution.:)

Quelles leçons en tirer  pour les développeurs d’applications de RA ?

La RA ne peut plus être conçu comme une solution à part. Elle doit s’intégrer dans une constellation d’objets interconnectés, où chacun apporte une brique à l’expérience : un écran visuel ici, un micro là, un cerveau numérique ailleurs (ou plusieurs d’ailleurs). Les entreprises doivent développer des solutions compatibles et évolutives qui tirent le maximum des données disponibles. Cela implique bien entendu de privilégier les usages d’API ouvertes et les intégrations natives.

Une conséquence immédiate est probablement le choix d’un écosystème de développement principal. Apple, Google, Meta… Chaque géant pousse son propre monde. Pour une entreprise de RA, il est tentant de vouloir tout couvrir. Mais je pense que le coût de cette universalité va devenir prohibitif malheureusement, en particulier si le développement doit être réellement multimodal. Gardons toutefois quelques espoirs (raisonnables) sur l’interopérabilité avec des initiatives comme OpenXR ou WebXR. Il est également possible de développer un cas d’usage bien ciblé (ex. maintenance industrielle, formation médicale) et l’adapter à plusieurs plateformes. L’important est de ne pas se disperser dès le départ.

Les cas d’usage professionnels ont longtemps porté la RA. Ils sont rentables, clairs, concrets. Mais cela ne veut pas dire que le grand public est hors de portée. Au contraire, des usages « grand public spécialisés » (sport, santé, tourisme) peuvent émerger si l’objet connecté sait se faire oublier, tout en apportant une réelle valeur. Il y a dans ces secteurs de profondes sources de valeurs. Pour aller plus loin, je pense que, comme dans les autres secteurs du numérique, les usages pro et perso vont converger en RA et c’est d’ailleurs déjà le cas dans des secteurs particulier somme l’essayage virtuel ou l’assistance à distance. Essayer un maquillage pour votre week-end ou proposer une porte de garage virtuelle à votre client utilisent les mêmes technologies et les mêmes réflexes d’usages.

Enfonçons également une porte ouverte : La RA n’est plus simplement une technologie d’affichage. Elle devient intelligente. L’IA permet de comprendre ce que l’utilisateur voit, où il se trouve, ce qu’il pourrait vouloir faire. C’est une révolution silencieuse, mais profonde. Les entreprises qui réussiront seront celles qui auront su marier l’IA à la RA pour proposer des assistants contextuels, des guides personnalisés, des interactions naturelles. Même si les IA évoluent très vite, il est crucial de commencer à les intégrer dès aujourd’hui.

Et pour terminer je vous propose la pire des évidences, que je répète régulièrement depuis 20 ans mais malheureusement, que je pense répéter encore quelques années : avant de développer une solution, il faut toujours se poser la question ”à quoi ça sert, pour qui, et pourquoi maintenant ?”  Trop de projets de RA restent bloqués au stade du POC (proof of concept), parce qu’ils n’ont jamais répondu à un besoin clair, quotidien, réel.

Évident, non ?

Leading Innovation ++ on the Field ++ with a Purpose | #AugmentedReality #Industry #DataScience #AI #CultivatedMeat #FutureOfFood | PhD Astrophysics
Articles créés 430

Un commentaire pour “Écosystèmes augmentés : repenser l’objet pour penser l’usage

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut