Vous souhaitez ajouter un affichage à vos stores ? Meta pense que la réponse est oui.
Meta prévoit d’intégrer la technologie d’affichage dans ses lunettes intelligentes Ray-Ban d’ici 2025, selon Temps Financiervisant à améliorer l’expérience utilisateur et à consolider sa position sur le marché concurrentiel des wearables. Cette initiative vise à remettre en question la domination des smartphones en tant que principal appareil informatique pour les consommateurs et intervient à un moment où des sociétés concurrentes, dont Apple et Google, développent activement des produits similaires.
Meta ajoutera une technologie d’affichage aux lunettes intelligentes Ray-Ban d’ici 2025
Les mises à jour attendues des lunettes Ray-Ban, développées en collaboration avec EssilorLuxottica, comporteront un petit écran principalement pour les notifications et les réponses de l’assistant virtuel de Meta. Des sources indiquent que ces versions améliorées pourraient être lancées dès le second semestre 2025.
Cette décision fait suite au lancement réussi de la dernière version des lunettes Ray-Ban Meta en septembre 2023. Selon Francesco Milleri, PDG d’EssilorLuxottica, ces derniers modèles ont largement surpassé les itérations précédentes, réalisant plus de ventes au cours de leurs premiers mois que les versions précédentes sur deux ans. . Le marché plus large des lunettes portables a connu une croissance notable de 73 % des expéditions en 2024.
En septembre, Meta a présenté son prototype de lunettes de réalité augmentée, Orionqui bénéficie d’un design compact et d’une technologie d’affichage avancée. Les lunettes Orion peuvent superposer du contenu 3D sur le monde réel, ce qui représente une avancée substantielle dans la technologie AR par rapport aux tentatives précédentes de sociétés comme Google et Microsoft. Meta a accéléré le développement d’Orion suite aux retours positifs des premiers tests, bien que la disponibilité pour les consommateurs soit encore loin.
Fans européens de Ray-Ban, découvrez vos nouvelles lunettes alimentées par l’IA
De plus, Meta a introduit le live Fonctionnalités IA pour ses Ray-Banpermettant des interactions et des traductions en temps réel. L’IA, une fois activée, offre aux utilisateurs une expérience « toujours consciente », répondant aux questions et offrant des informations sur l’environnement. Cependant, cette fonctionnalité en est encore à ses débuts en version bêta, avec des limitations en termes de connectivité et de précision. Les capacités de traduction prennent actuellement en charge un nombre limité de langues et les utilisateurs doivent télécharger des modules linguistiques spécifiques pour que la fonctionnalité fonctionne efficacement.
Malgré les progrès en cours, Meta est confrontée à des défis pour créer des lunettes AR à la mode, dotées de performances matérielles et d’une autonomie de batterie adéquates, à un prix acceptable. Le directeur de la technologie de Meta, Andrew Bosworth, a récemment souligné que la faisabilité de l’intégration de l’IA en direct et de l’affichage tête haute dépendra de la capacité à surmonter ces obstacles. Il a indiqué que l’ajout d’un contrôle gestuel via un bracelet ou un périphérique d’entrée similaire pourrait apparaître parallèlement aux futurs modèles à affichage amélioré.
À l’avenir, les investissements continus de Meta dans la technologie de l’IA pourraient conduire à des appareils plus intégrés et plus polyvalents, combinant des capacités telles que le suivi de la condition physique et les fonctionnalités de réalité virtuelle. Le développement de systèmes de reconnaissance gestuelle pourrait également améliorer l’interaction de l’utilisateur avec les lunettes intelligentes, car les Ray-Ban actuelles ne prennent pas en charge les gestes de pointage, ce qui limite les fonctionnalités.
Crédit image en vedette : Méta