À quoi ressembleront les lunettes du futur ? Beaucoup de gens ont dû l'imaginer à un moment donné.
De la même taille que les lunettes actuelles, elles pourraient se transformer en HUD mobile pendant la navigation. Lors des appels vidéo, une image holographique de l'interlocuteur flotterait dans l'air. Les verres afficheraient tout ce dont vous avez besoin... En gros, ce serait un peu comme les lunettes portées par Vegeta ou Iron Man.
Le 25 septembre, Meta a présenté ses premières lunettes intelligentes AR, Orion, nous rapprochant un peu plus de ce produit idéal. Bien que des lunettes AR aient été commercialisées au cours des dernières années, elles partageaient toutes des défauts évidents : soit elles avaient des fonctionnalités limitées, fonctionnant essentiellement comme des projecteurs portables, soit elles étaient encombrantes et d'un prix prohibitif, ce qui les rendait inadaptées au marché de masse.
Par rapport aux produits précédents, le design élégant et les fonctionnalités AR intégrées de Meta Orion ravivent l'espoir de voir les lunettes AR devenir courantes. De plus, alors que Meta Connect 2024 marque le 10e anniversaire de l'événement, Mark Zuckerberg a dévoilé plusieurs autres nouveaux produits :
- Lunettes intelligentes Meta Orion : une expérience AR de pointe ;
- Casque MR Meta Quest 3S : la « version allégée » du Quest 3, avec un prix inférieur mais aucune fonctionnalité révolutionnaire ;
- Mises à niveau continues de Meta AI pour améliorer l'expérience utilisateur des casques ;
- Nouvelles fonctionnalités d'IA pour Meta Ray-Ban : traduction en temps réel, suggestions de style personnalisées et même aide pour retrouver votre voiture ;
- Le premier modèle de langage open source de grande taille (LLM) de Meta, Llama 3.2, avec des capacités multimodales.
L'intelligence artificielle combinée au matériel informatique est le sujet brûlant de l'électronique grand public cette année. Mais comment Meta intègre-t-il exactement ses puissants modèles d'IA à son nouveau matériel ? Et à quoi ressemblent les très attendues lunettes intelligentes Meta Orion ? Regardons cela de plus près.
Lunettes de réalité augmentée Meta Orion : les débuts spectaculaires d'un projet vieux de dix ans
Dans la vision de Zuckerberg, les lunettes doivent être l'appareil futuriste par excellence. Avant cela, Meta s'était déjà aventuré sur le marché des lunettes intelligentes avec la collaboration Ray-Ban Meta, qui a rencontré un succès considérable en évaluant l'intérêt des consommateurs pour les lunettes intelligentes.
Cependant, la Ray-Ban Meta n'a atteint que la moitié de son objectif ultime. Le produit proposait principalement des fonctions audio, de photographie et quelques fonctions d'intelligence artificielle de base. Il s'agissait essentiellement d'un appareil portable traditionnel.
La version complète, que Zuckerberg a qualifiée de « parfaite », est constituée des lunettes de réalité augmentée Meta Orion. Ce projet top secret est en développement depuis plus d’une décennie, avec des milliards de dollars investis. Aujourd’hui, le monde entier peut enfin le découvrir.
La première impression que l'on peut ressentir en lisant les lunettes Meta Orion est leur design élégant, qui ressemble beaucoup à des lunettes de soleil classiques. Cela les distingue immédiatement des concurrents plus volumineux du marché. Après tout, les lunettes doivent aussi être belles.
Meta a réussi à obtenir ce résultat en choisissant de ne pas regrouper tous les composants dans une seule monture. Au lieu de cela, Meta Orion se compose de trois parties distinctes : les lunettes elles-mêmes, un bracelet de suivi des mouvements de la main et un « module de calcul » de la taille d’une télécommande. Ces trois composants sont connectés sans fil.
Cette conception modulaire, associée à l'utilisation de matériaux légers en magnésium, permet aux lunettes Orion de peser un poids étonnamment léger de 98 grammes. À titre de comparaison, les nouvelles lunettes AR de Snap, Spectacles, lancées le 17 septembre, pèsent 226 grammes.
Encore plus impressionnant, l'Orion léger offre une autonomie de batterie d'environ deux heures, tandis que les Spectacles plus volumineuses ne parviennent qu'à une brève autonomie de 45 minutes.
En ce qui concerne les principales capacités de projection AR, Orion est « bien en avance sur la concurrence » dans plusieurs domaines clés. Au lieu d’un écran en verre traditionnel, Orion utilise des lentilles en carbure de silicium. Les microprojecteurs intégrés dans le cadre émettent de la lumière dans le guide d’ondes, qui est ensuite projetée sur les lentilles, créant des visuels AR de profondeur et de taille variables. Zuckerberg appelle cela une « vue panoramique ».
Selon les tests effectués par The VergeLe champ de vision de Meta Orion atteint un impressionnant 70 degrés, ce qui en fait probablement le plus large du secteur des lunettes AR.
Dans les vidéos de démonstration disponibles, les utilisateurs peuvent porter les lunettes pour ouvrir plusieurs fenêtres des applications Meta Horizon pour effectuer plusieurs tâches à la fois, ou utiliser Meta AI pour reconnaître et étiqueter des objets du monde réel.
Même si le regard de l’utilisateur se détourne de ces fenêtres, les projections virtuelles restent en place, prêtes à réapparaître lorsque l’attention de l’utilisateur revient.
En ce qui concerne la clarté de l'image et du texte, c'est assez bon pour regarder des photos et lire du texte, mais vous ne voudrez probablement pas utiliser ces lunettes pour regarder des films, du moins pas encore.
L'expertise de Meta dans le domaine des réseaux sociaux ouvre également de nouvelles possibilités intéressantes avec les lunettes de réalité augmentée. Lorsque vous êtes en communication avec un ami, sa projection holographique apparaît juste devant vous, même si la version actuelle est encore un peu approximative.
Meta Orion comprend également une caméra orientée vers l'intérieur qui scanne le visage du porteur pour créer un avatar en temps réel pour les appels vidéo avec les utilisateurs mobiles.
En termes d'interaction, Meta Orion prend en charge le suivi oculaire, le suivi des mains et les commandes vocales IA. Lorsqu'il est associé au bracelet, les utilisateurs peuvent effectuer des gestes de la main plus précis.
Le bracelet reconnaît plusieurs gestes de la main : pincer le pouce et l'index permet de sélectionner un contenu, tandis que pincer le majeur et le pouce permet d'afficher ou de masquer le lanceur d'applications. Si vous appuyez votre pouce contre votre poing fermé, cela vous permet de faire défiler l'écran vers le haut ou vers le bas, imitant le geste de lancer une pièce de monnaie. Dans l'ensemble, les interactions semblent naturelles.
Il convient également de mentionner que le bracelet offre un retour haptique, vous permettant de savoir quand votre geste a été reconnu avec succès. Cela résout un problème majeur auquel de nombreux appareils de réalité mixte (MR) sont actuellement confrontés.
Le bracelet fonctionne en lisant les signaux d’électromyographie (EMG) liés aux gestes de la main. The Verge ils l’ont même comparé à de la « lecture des pensées ».
Avec ce bracelet, vous pouvez utiliser vos yeux comme pointeur pour l'interface Orion et pincer pour sélectionner. L'expérience globale est intuitive. Plus important encore, en public, vous n'aurez pas besoin d'agiter maladroitement vos mains en l'air pour donner des commandes. Avec vos mains dans vos poches, vous pouvez toujours contrôler les lunettes AR naturellement.
Meta AI, qui a déjà fait ses preuves avec les lunettes Ray-Ban, va encore plus loin avec son intégration dans la réalité augmentée. Elle peut désormais interagir plus en profondeur avec le monde réel.
Lors d'une démonstration en direct, The Verge j'ai utilisé Orion pour identifier et étiqueter rapidement les ingrédients sur une table, puis j'ai demandé à Meta AI de générer une recette de smoothie en utilisant ces ingrédients.
Bien que Mark Zuckerberg ait souligné que Meta Orion est conçu pour le grand public, la version actuelle n'en est encore qu'à l'état de prototype, disponible uniquement pour les développeurs et testeurs sélectionnés. Parmi ceux qui la testent figure le PDG de NVIDIA, Jensen Huang.
Meta Quest 3S : une version allégée de Vision Pro ?
Zuckerberg a annoncé le prix du Quest 3S dans les dix secondes qui ont suivi son entrée sur scène, ce qui est remarquablement rare pour le lancement d'un produit électronique. Je dois dire que cette approche directe et directe est vraiment géniale.
En bref, le Meta Quest 3S est essentiellement une « version allégée » du Quest 3. Le modèle de base avec 128 Go démarre à 299.99 $, tandis que la version 256 Go est au prix de 399.99 $.
Côté spécifications, le Quest 3S est alimenté par le processeur Snapdragon XR2 Gen 2, le même que celui du Quest 3, et il prend également en charge le suivi des mains.
Après avoir regardé la présentation, j'ai eu l'impression que le nom « Quest 3S » aurait pu être plus justement appelé « Quest 2 Plus ». Les rapports suggèrent que, en tant qu'option plus économique, le Quest 3S utilise les mêmes objectifs que le Quest 2 et a un corps plus épais que le Quest 3.
Bien que les spécifications matérielles du Quest 3S ne soient pas à la hauteur de celles du Quest 3, l'expérience logicielle est pratiquement la même. Comme son homologue plus cher, le Quest 3S fonctionne sous HorizonOS, offrant une large gamme de fonctionnalités de divertissement et de productivité.
Lors du lancement du Quest 3 l’année dernière, les critiques étaient mitigées. Les plus grandes critiques concernaient un décalage et une distorsion importants lors de l’utilisation du mode de transmission vidéo. Zuckerberg a annoncé qu’après un an d’optimisation, l’expérience a connu des améliorations majeures, notamment dans trois domaines clés : la fonctionnalité VR, le suivi des mains et la compatibilité logicielle.
Les utilisateurs peuvent désormais transformer des pages Web 2D en un espace de travail immersif, comme avec Vision Pro, et organiser plusieurs fenêtres ouvertes n’importe où dans l’espace virtuel.
De plus, le mode cinéma du Quest 3S permet de transformer un seul écran en un immense cinéma virtuel, remplissant ainsi tout l'espace. Si le visionnage immersif sur casque n'est pas un concept nouveau, la principale différence réside dans le nombre de plateformes et de sources multimédias prises en charge, qui définiront l'expérience du produit.
Quest 3S prend en charge les principales plateformes multimédias occidentales telles que Netflix, YouTube et Amazon Prime, qui peuvent toutes être utilisées en mode cinéma.
Les films et les jeux sont des fonctionnalités de divertissement essentielles pour tout casque de réalité virtuelle, mais les fonctionnalités supplémentaires mettent souvent en valeur les capacités du produit. L'une des nouvelles fonctionnalités révélées lors de l'événement est Hyperscale sur Quest 3S.
À l'aide de votre téléphone, vous pouvez numériser l'agencement de la pièce, y compris le mobilier, puis recréer un modèle presque 1:1 de la pièce dans Quest 3S.
D'après la démonstration présentée lors de l'événement, la scène recréée présentait une fidélité impressionnante, avec des bords irréguliers ou des distorsions minimes. Cette technologie pourrait potentiellement être utilisée pour des visites virtuelles immersives de maisons, de musées ou de monuments, sans avoir à quitter votre domicile.
Cependant, au-delà de cela, la praticité de la recréation de scènes et la manière dont elle peut être appliquée dans différentes régions restent une question à laquelle Meta et Quest doivent répondre à l'avenir.
Meta, abréviation de « métaverse », a été rebaptisé par Facebook pour souligner l'engagement de Mark Zuckerberg envers les nouvelles technologies. Meta est l'un des premiers géants de la technologie à s'intéresser activement au métaverse et le « métaverse » est devenu un sujet essentiel à chaque lancement de produit Meta, malgré de nombreux défis en cours de route.
Lors de l'événement, Zuckerberg a présenté de nouvelles améliorations aux fonctionnalités sociales immersives. Les utilisateurs de Quest peuvent désormais créer des avatars virtuels et faire équipe pour jouer à des jeux, s'entraîner ou assister à un concert virtuel ensemble.
Avec la sortie du Quest 3S, Meta a également annoncé que le Quest 2/Pro serait abandonné et que le prix du Quest 3 serait abaissé de 649 $ à 499 $. Les nouveaux produits seront disponibles à la livraison après le 15 octobre.
Lancement de Llama 3.2 : les capacités multimodales donnent vie aux lunettes AR
Par rapport aux changements minimes du Meta Quest 3S, les nouvelles fonctionnalités de Meta AI brillent davantage. Lors de l'événement, Llama 3.2, le dernier modèle de langage étendu (LLM) de Meta, a occupé le devant de la scène avec ses impressionnantes capacités multimodales.
Mark Zuckerberg a annoncé que Meta AI inclut désormais une fonctionnalité vocale, permettant aux utilisateurs d'interagir avec elle via Messenger, Facebook, WhatsApp et Instagram en posant des questions ou en discutant d'autres manières, en recevant des réponses vocales.
Les utilisateurs peuvent non seulement interagir avec Meta AI via la voix, mais ils peuvent également choisir parmi une gamme de voix de célébrités, notamment Judi Dench, John Cena, Awkwafina et Kristen Bell.
Zuckerberg a fait une démonstration de cette fonctionnalité en direct sur scène. Dans l’ensemble, le temps de réponse était rapide, les réponses étaient assez précises et l’intonation de la voix était encore plus proche des conversations humaines. Les utilisateurs peuvent même interrompre la conversation à tout moment pour insérer un nouveau sujet ou une nouvelle question.
Bien qu'il y ait eu quelques problèmes lors de la démonstration, Zuckerberg a ouvertement reconnu que cela était attendu avec une démonstration d'une technologie en évolution, et il a souligné que ce sont des domaines sur lesquels ils travaillent à améliorer.
En plus de l'interaction vocale, la fonctionnalité AI Studio de Meta AI permet aux utilisateurs de créer leurs propres personnages IA adaptés à leurs préférences, intérêts et besoins. Ces personnages IA peuvent aider à générer des mèmes, offrir des conseils de voyage ou simplement engager une conversation informelle.
Toutefois, d'après les résultats, la future fonction de traduction par IA semble plus pratique. Actuellement, tous les appareils équipés de Meta AI prennent en charge la traduction vocale en temps réel. Au cours de l'événement, deux présentateurs ont utilisé des lunettes Meta Ray-Ban pour mener une conversation en temps réel entre l'anglais et l'espagnol, démontrant ainsi la capacité de l'appareil à effectuer des traductions en direct.
Les lunettes Meta Ray-Ban captent le discours grâce à leur microphone et le traduisent rapidement dans la langue maternelle du porteur. Bien que la traduction soit relativement rapide, les phrases plus longues peuvent provoquer de brèves pauses, ce qui rend la conversation légèrement gênante. Dans certains cas, l'IA interrompt même l'orateur au milieu d'une phrase.
Une autre fonctionnalité, la traduction de l'audio vidéo, va encore plus loin. Par rapport à la traduction en temps réel mentionnée précédemment, on pourrait la qualifier de « fonctionnalité de traduction avancée ». Meta AI est capable de traduire l'audio des vidéos en ligne dans une autre langue et, chose impressionnante, elle peut parfaitement préserver le ton d'origine du locuteur, ses caractéristiques vocales et même ses accents de différents pays lorsqu'il parle anglais.
La série de mises à jour de Meta AI lors de l'événement partage toutes une force motrice commune : Appelez le 3.2.
En juillet de cette année, Meta venait de lancer le modèle Llama 3.1, une innovation majeure avec 405 milliards de paramètres. Il s'agissait du modèle open source le plus puissant développé par Meta et l'un des plus performants au niveau mondial.
Étonnamment, en seulement deux mois, Llama 3.2 est arrivé.
Llama 3.2 est le premier modèle d'IA open source de Meta doté de capacités multimodales, ce qui signifie qu'il peut traiter simultanément du texte et des images. Il est disponible en deux modèles visuels (paramètres 11B et 90B) et deux modèles légers uniquement textuels (1B et 3B). Les modèles légers peuvent traiter les entrées utilisateur localement sans avoir besoin de s'appuyer sur des serveurs externes.
Grâce aux nouvelles capacités de Llama 3.2, de nombreux appareils équipés de grands modèles ont été étendus à des scénarios plus pratiques. Au-delà de la fonction de traduction IA mentionnée précédemment, Meta Ray-Ban, désormais équipée de capacités visuelles, peut aider les utilisateurs plus en profondeur dans leurs tâches et routines quotidiennes.
Par exemple, les utilisateurs peuvent demander à Meta Ray-Ban quel type de boissons peuvent être préparées avec un avocat, et il n'est pas nécessaire de mentionner explicitement « avocat » dans la phrase : il suffit d'utiliser un pronom comme « ceci », car les lunettes peuvent voir l'objet.
De nombreuses personnes ont déjà oublié où elles ont garé leur voiture au centre commercial. Pour ceux qui oublient fréquemment les numéros de place de parking, Meta Ray-Ban peut désormais les aider en enregistrant ces informations, afin qu'elles soient facilement récupérables en cas de besoin.
Qu'il s'agisse d'appeler un numéro sur une affiche, de scanner un code QR sur une brochure ou d'aider au choix de tenues quotidiennes, la caméra des lunettes, combinée à l'IA visuelle récemment améliorée, permet à Meta Ray-Ban de s'intégrer parfaitement dans tous les recoins de la vie quotidienne.
Grâce à cette caméra, la collaboration entre Be My Eyes et Meta est devenue possible. Be My Eyes est une plateforme à but non lucratif qui met en relation des personnes malvoyantes avec des bénévoles et des entreprises voyantes grâce à la vidéo en temps réel et à l'IA. Les bénévoles ou les organisations peuvent aider les utilisateurs à résoudre des problèmes en temps réel via des appels vidéo en direct.
Ces avancées technologiques améliorent non seulement la vie de la majorité, mais comblent également d’importantes lacunes dans les services destinés à des groupes particuliers, offrant ainsi un confort à tous. C’est là que commence à se dévoiler le véritable sens de la technologie.
L'aube de la nouvelle génération d'appareils informatiques
Bien qu'il y avait déjà des attentes pour les lunettes Orion de Meta, lorsque Mark Zuckerberg a finalement révélé le vrai produit, cela a ramené un sentiment d'émerveillement qui manquait depuis longtemps aux innovations technologiques.
Cet étonnement n’est pas seulement dû à la vision convaincante de Meta sur l’avenir, mais aussi au fait que les performances réelles du produit sont remarquablement proches de cette vision. The Verge a fourni une évaluation précise après l'avoir essayé : Orion n'est ni un mirage lointain ni un produit entièrement achevé ; il existe quelque part entre les deux.
C'est ce qui distingue Orion de nombreuses autres explorations précédentes de Meta dans le domaine des concepts futuristes : il ne s'agit pas d'un simple prototype coincé dans un laboratoire. Au lieu de cela, Meta a misé « tout » sur cet appareil de nouvelle génération, combinant parfaitement l'IA et la réalité mixte (RM).
Orion est un appareil d'IA ultime : il peut voir ce que l'utilisateur voit, entendre ce que l'utilisateur entend et combiner cela avec le contexte réel de l'utilisateur pour fournir des réponses plus efficaces.
C'est aussi un outil d'interaction et de communication ultime : n'étant plus limité par de petits écrans ou des casques encombrants, Orion permet aux mondes virtuels et réels de fusionner de manière transparente, offrant une interaction partout et à tout moment.
Il est largement admis dans le secteur que le smartphone en tant qu'appareil informatique approche de la fin de son cycle de vie. Des entreprises comme Apple, Meta et même OpenAI étudient la suite.
Bien que Meta Orion soit encore au stade de prototype, le produit semble très prometteur. Il reste à voir s'il deviendra le prochain appareil intelligent grand public après les smartphones, mais Zuckerberg est confiant quant à son potentiel.
Les lunettes et les hologrammes devraient devenir des produits omniprésents. Si les milliards de personnes qui portent actuellement des lunettes peuvent passer à l’IA et aux lunettes de réalité mixte (RM), ces lunettes pourraient devenir l’un des produits les plus réussis de l’histoire du monde – et, selon Zuckerberg, il est probable qu’elles connaissent un succès encore plus grand.
Source à partir de si un
Écrit par Fanbo Xiao
Avis de non-responsabilité : les informations énoncées ci-dessus sont fournies par ifanr.com, indépendamment d'Chovm.com. Chovm.com ne fait aucune représentation ni garantie quant à la qualité et à la fiabilité du vendeur et des produits. Chovm.com décline expressément toute responsabilité en cas de violation du droit d'auteur du contenu.