Le projet Google AI Astra, dévoilé lors de Google I/O 2024, est sur le point de devenir un outil essentiel dans l’arsenal d’IA de Google. Conçu comme un « agent d’IA universel utile dans la vie de tous les jours », Astra allie les capacités de Assistant Google et Google Gémeauxen les enrichissant de nouvelles fonctionnalités et d’une interface conversationnelle.
Cela représente une avancée significative dans la technologie de l’IA, allant au-delà des chatbots et des assistants vocaux existants.
Google AI Project Astra offre une expérience d’IA conversationnelle multimodale
Bien que les fonctionnalités principales d’Astra (répondre aux questions, générer du texte ou analyser des images) puissent sembler familières, sa distinction réside dans sa fonctionnalité multimodale, son traitement rapide et sa capacité de conversation, comme présenté sur Google E/S 2024. Google envisage Projet Astra en tant qu’agent d’IA polyvalent capable de comprendre et de répondre à différents types d’entrées : texte, images, vidéo et audio.
La capacité de Google AI Project Astra à travailler en temps réel, à maintenir le contexte et à mémoriser les conversations passées le distingue des modèles d’IA actuels. Des démonstrations ont montré qu’Astra fonctionnait sur des téléphones et des lunettes intelligentes, alimentées par Modèles d’IA Google Geminisuggérant une intégration potentielle dans l’application Gemini.
Le chemin vers l’intégration du projet Astra
Google a déclaré que « certaines de ces capacités d’agent seront intégrées aux produits Google comme l’application Gemini plus tard cette année ».
Cependant, l’expérience à part entière du Projet Astra pourrait ne pas être immédiatement accessible au public. Même si des éléments d’Astra pourraient progressivement apparaître dans les applications Google tout au long de 2024, l’expérience complète, impliquant potentiellement du matériel dédié, sera probablement déployée plus tard.
Les premières démonstrations du projet Astra mettent en valeur ses capacités. Dans un exemple, Astra a utilisé l’appareil photo d’un téléphone pour identifier des objets dans une scène et a répondu aux invites pour mettre en évidence des composants spécifiques. D’autres démonstrations comprenaient la reconnaissance de points de repère à partir de dessins, la mémorisation de listes, la compréhension d’extraits de code et la résolution de problèmes mathématiques. La fonctionnalité multimodale d’Astra, combinant des entrées visuelles et auditives avec le traitement du langage naturel, est au cœur de ses capacités améliorées.
Le matériel est le principal obstacle au projet Google AI Astra
Alors que Google a montré Astra sur un smartphone et des lunettes intelligentes, il a fait allusion à une compatibilité avec d’autres appareils. Une intégration potentielle dans des écouteurs sans fil ou d’autres facteurs de forme pourrait émerger à l’avenir. Cependant, la puissance de traitement requise pour les capacités en temps réel d’Astra présente un défi, nécessitant soit un traitement intégré important, soit une connexion rapide au cloud.
Avec le dévoilement du projet Astra, Google a signalé son engagement continu à faire progresser la technologie de l’IA. Alors que des concurrents comme OpenAI introduisent des mises à niveau majeures de leurs propres modèles d’IA, Google vise à rester à la pointe de l’innovation en matière d’IA. L’avenir réserve davantage d’annonces et de développements liés au projet Astra à mesure qu’il évolue vers une disponibilité et une intégration plus larges.
Crédit image en vedette: Google