Google I/O 2025, AndroidXR et la réalité augmentée

La grande rencontre de Google pour les développeurs nous a apporté son lot d’annonces et de nouveautés. Si vous êtes comme moi passionné par les technologies immersives, vous attendiez (enfin) LE lancement d’AndroidXR et des cas d’usages qui place (enfin) Google dans le jeu des écosystèmes XR qui comptent. Autant vous l’avouer tout de suite, je suis resté sur ma faim. Je m’attendais bien à voir les avancées sur l’IA prendre de la place, mais pas à suivre des annonces aussi convenues et sans imagination pour la XR. Est-ce que cette technologie est vraiment importante pour Google ? Je le pense même si le mot AndroidXR n’apparait à aucune reprise dans l’article bilan « 100 things we announced at I/O » :) Mais restons positifs et explorons ensemble les annonces, les choses pas annoncées et les conséquences pour notre écosystème.

Les annonces AndroidXR

Je ne vais pas vous refaire l’histoire d’AndroidXR mais juste un court résumé. AndroidXR est la déclinaison du système d’exploitation Android, spécialement conçue pour les dispositifs de réalité étendue (XR) tels que les casques de réalité mixte et les lunettes de RA. Annoncé fin 2024 par Google en collaboration étroite avec Samsung et Qualcomm, AndroidXR représente pour Google le prolongement naturel d’Android au-delà du mobile, après l’avoir porté sur les montres (Wear OS), les TV (Google TV) et l’automobile (Android Auto). On comprend d’ailleurs dans la présentation qu’une des ambitions forte est de pouvoir faire communiquer tous ces systèmes et de les intégrer aux services de Google. Une démarche assez classique chez les géants de la tech.

Voici les annonces que j’ai retenues.

Gemini, le moteur d’IA de Google, est au cœur du système. Présent à la fois pour les casques et pour les lunettes, son rôle sera celui d’une interface fluide avec l’utilisateur, comme chez Meta pour l’utilisation de Meta IA dans les lunettes Ray Ban Meta. Gemini permettra également au système d’avoir une certaine conscience de l’environnement (à travers les caméras et le microphone) et du porteur (à travers les services de Google et des éléments biométriques qui restent encore flous). L’objectif, encore une fois assez classique car mis en avant par d’innombrables entreprises, est de rendre l’expérience la plus personnalisée possible.

Le premier matériel sous AndroidXR sera le casque de Samsung « Moohan » qui devrait arriver avant la fin de l’année. À part son design qui est clairement une référence au Vision Pro d’Apple (certains diraient une copie), on connait assez mal ces caractéristiques et ses applications. Il est probablement que toutes les applications Android seront disponibles dans le casque sous la forme de fenêtres flottantes en multi-tasking (comme chez Apple) et qu’on s’oriente vers des usages de deux types : Écrans géants déportés pour le loisir, bureau virtuel de travail avec accès aux outils Google.

Une grande partie de la session était dédiée aux lunettes de RA piloté par AndroidXR. Coté matériel, nous avons vu la même paire que celle déjà présentées au TED et qui est sûrement un « design de référence » pour les futures modèles comme l’avance Karl Guttag dans son analyse technique. Elles sont présentées comme un co-développement avec Samsung, mais semblent très peu personnalisées par rapport aux modèles « de base » proposés aujourd’hui pas les intégrateurs chinois. Je m’avance peut-être en pesant que ce n’est pas du tout la priorité de Samsung :) Google a annoncé des partenariats avec des marques connues comme Warby Parker et Gentle Monster. Certains évoquent également un partenariat avec le groupe de luxe français Kering Eyewear.

Les fonctionnalités présentées de ces lunettes sont les mêmes que celles des Meta Ray Ban (et des autres) avec un écran de visualisation en plus. Les usages classiques mis en avant sont la traduction, le sous tirage, la prise de photos et des vidéos, l’assistance pas l’IA, la navigation, etc. Sans minimiser la performance de concevoir ces objets, seuls les nouveaux arrivés dans le secteur peuvent être surpris, voir étonné des usages proposés. À titre personnel, je me dis qu’il s’est passé 10 ans depuis le lancement des Google Glass et que l’évolution est assez lente…

XREAL était également présent pour annoncer la sortie de son prochain modèle, Aura, sous AndroidXR. Peu d’information sont disponibles pour le moment, mais l’entreprise devrait faire une présentation plus détaille au cours de l’AWE 2025.

Pour AndroidXR lui-même, c’est du côté des sessions techniques qu’il fallait se rendre pour en savoir plus. Nous avons d’abords l’annonce du « Developer Preview 2 » qui ajoute des éléments spécifiques à la XR dans les outils de développement Android. On voit en particulier apparaitre des outils pour adapter les applications aux possibilités des futurs matériels (avec ou sans écran, taille, interaction). Notons d’ailleurs que la notion d’ « Adaptative Apps » a été largement poussée sur cette rencontre, en lien avec l’arrivée des matériels de XR mais aussi pour faciliter la compatibilité des applications avec Android Auto. Le suivi des mains devient aussi un standard et l’émulateur AndroidXR est annoncé pour complet et plus robuste. Vous trouverez dans la vidéo suivante une synthèse des fonctionnalités et possibilités de AndroidXR.

Autre élément important, le Play Store s’adapte en listant les applications 2D qui seront compatibles avec AndroidXR. Le « XR Play Store » devrait être disponible dans le courant de l’année.

Le projet Astra de Google et la fonction « Try-it on » de Google Shopping

J’aimerais attirer votre attention sur les annonces à propos du projet Astra de Google qui n’est pas explicitement relié à la XR ou à la RA, mais qui commence à avoir des fonctionnalités qui s’en rapprochent. Si ce nom ne vous dit rien, le projet Astra est l’initiative de recherche sur l’IA avancée de Google DeepMind, visant à créer un assistant universel qui comprenne et interagisse avec le monde à travers une IA multimodale, en traitant les entrées vocales et visuelles pour des expériences utilisateur intuitives. Actuellement en développement, il reste un prototype sans date de sortie publique, mais on comprend assez facilement que c’est bien ce type d’assistant que Google veut place dans les lunettes connectées et probablement tous les systèmes AndroidXR (ou même Android). La démonstration faite à Google I/O montrait une conversation complète entre un utilisateur en train de réparer son vélo et l’assistant. Dans un système, l’assistant montre le bon bac de vis en utilisant de la réalité augmentée. L’utilisateur est donc guidé vers ce qu’il recherche. Je vous laisse imaginer la même scène avec des lunettes connectées.

Autre annonce dans la partie Google Shopping, la fonctionnalité « Try-it on » qui permet aux utilisateurs de télécharger leurs photos et d’essayer virtuellement des vêtements. Encore expérimentale, elle est destinée à se développer et à inclure de plus en plus de modèle. Même si elle reste pour le moment focaliser sur le commerce en ligne et donc sur des photos des consommateurs, elle pourrait assez rapidement évoluer vers des vidéos (plus adaptée pour voir le tombé d’un vêtement) et vers des outils de réalité augmentée en temps réel. Si vous travaillez dans le virtual try on en RA, surveillez les annonces de Google Shopping !

Quelques points non évoqués

Revenons du côté du matériel pour s’étonner de l’absence des partenaires d’AndroidXR dans cette conférence. Le système XIN de Sony, les futurs modèles des appareils de Lynx et de Magic Leap n’ont pas été évoqués. Si ces derniers sont à l’état de prototypes, XIN est déjà opérationnel et devrait arriver bientôt. On peut imaginer que ces partenaires profiteront d’autres événements plus centrés sur la XR pour faire leurs annonces.

Autre point important assez peu évoqué dans cette édition, le Google I/O, le fonctionnement du futur « Store XR ». Comme nous l’avons vu, il devrait être disponible dans le courant de l’année et faire la différence entre deux catégories d’applications : les applications 2D utilisables en 3D sous la forme de fenêtres et les applications nativement 3D. Sans autre information, il devrait s’appuyer sur les stratégies de monétisation éprouvées dans l’écosystème Android actuel. On peut encore se poser des questions sur la manière dont la publicité sera apportée sur les applications 3D. Les formats actuellement testés avec Roblox peuvent nous donner une idée des futures possibilités et en particulier la volonté d’intégrer la publicité de manière fluide dans l’expérience.

La question de l’UX a été un peu abordée dans les conférences techniques, mais je trouve que cela ne reflète pas tout le matériel et les indications déjà disponibles sur le site des développeurs Android. Google propose de cadrer assez strictement les modes « Home Space » and « Full Space », peut-être pour éviter les déconvenues sur des matériels très différents. Il est très probable que beaucoup de constructeurs, en particulier de lunettes connectées, vont adopter rapidement AndroidXR, avec des configurations matérielles extrêmement différentes.

Google de retour dans la XR ?

C’est indéniable, Google marque son retour dans la XR avec la mise au point d’AndroidXR, annoncé comme le premier OS de l’ère « Gemini ». Les signes sont multiples, comme l’acquisition récente d’une partie des activités de HTC. La stratégie, de l’extérieur, ressemble beaucoup à celle mise en place sur le mobile : placer un OS sur le plus de matériel possible en poussant en même temps les services Google. Pour le moment, la partie matérielle est laissée à des partenaires.

Les conséquences de ce déploiement vont être nombreuses sur l’écosystème XR. Le premier sera probablement une avalanche de matériel (à des prix compétitifs) car la plupart des constructeurs, en particulier de lunettes connectées, sont incapables de maintenir un OS performant. AndroidXR va donner des références d’UX communes aux utilisateurs et un cadre de développement homogène aux créateurs. Ce sont les deux conditions indispensables à un développement du marché. J’ai évoqué également la question de la publicité et du « search » qui vont aussi passer par des services Google et permettre de donner facilement des fonctionnalités avancées aux utilisateurs.

Reste le cas de Gemini (ou bientôt d’Astra) qui suscite chez moi quelques interrogations, en particulier sur le modèle économique de mise à disposition. Nous savons que faire fonctionner une IA n’est pas gratuit, la question se pose donc de la manière dont Google va la rentabiliser. Un bouquet de services gratuits et des fonctionnalités « premium » à la charge du développeur ? Une partie d’abonnement de l’utilisateur qui pourra être utilisée de manière encadrée par les applications ? A l’heure où on a vu émerger beaucoup de conflits sur le modèle économique d’Apple, il sera peut-être nécessaire de faire preuve d’imagination !

Leading Innovation ++ on the Field ++ with a Purpose | #AugmentedReality #Industry #DataScience #AI #CultivatedMeat #FutureOfFood | PhD Astrophysics
Articles créés 419

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut