L’intelligence artificielle générale (AGI), une forme théorique d’IA capable d’imiter l’intelligence humaine, pourrait apporter des changements radicaux dans le monde de la technologie. Contrairement à l’IA étroite d’aujourd’hui, programmée pour des tâches spécifiques telles que l’identification des défauts des produits ou la synthèse d’articles de presse, l’AGI promet une adaptabilité à un large éventail de défis basés sur la réflexion. Cependant, les personnalités du secteur, comme le PDG de Nvidia, Jensen Huang, se montrent naturellement prudentes lorsqu’il s’agit de prédire un calendrier concret pour son émergence.
AGI pourrait être dans 5 ans
Les implications éthiques et sociétales de l’AGI sont importantes. Si ces systèmes développent leurs propres objectifs mal alignés sur les objectifs humains, les conséquences pourraient être graves. La crainte est qu’une AGI suffisamment avancée puisse devenir incontrôlable, avec des résultats défiant toute prévision ou inversion.
Tout en hésitant à s’engager dans des scénarios apocalyptiques privilégiés par les médias, Huang reconnaît la complexité du développement de l’AGI. Un obstacle majeur consiste à établir des critères objectifs pour définir ce qui constitue une véritable AGI. Est-ce purement basé sur la performance ? L’AGI pourrait-elle être mesurée par sa capacité à raisonner, planifier ou apprendre de manière indépendante ?
Huang a profité de l’occasion pour partager son point de vue avec les médias sur ce sujet. Il postule que la prévision de l’arrivée d’une AGI réalisable dépend de la définition de l’AGI elle-même. Il fait une comparaison, notant que malgré la complexité introduite par les fuseaux horaires, la date du Nouvel An et celle du début de l’année 2025 sont claires.
« Si nous spécifions que l’AGI est quelque chose de très spécifique, un ensemble de tests dans lesquels un logiciel peut très bien réussir – ou peut-être 8 % mieux que la plupart des gens – Je crois que nous y arriverons d’ici 5 ans« , note Huang. Il propose des jalons hypothétiques de l’AGI, tels que des experts surpassant les examens juridiques, économiques ou médicaux. Pourtant, tant que le concept même d’AGI n’est pas défini plus concrètement, des prédictions précises restent difficiles.
La question des hallucinations
Une autre préoccupation majeure soulevée concerne la question de l’IA »hallucinations» – ces déclarations apparemment plausibles mais finalement fausses générées par certains modèles d’IA. Huang se dit cependant convaincu que ce problème peut être résolu en mettant l’accent sur des pratiques de vérification rigoureuses.
Huang souligne la nécessité d’ajouter une dimension de recherche à la création de réponses générées par l’IA, en la qualifiant de « génération augmentée par récupération ». Il insiste : « Ajoutez une règle : pour chaque réponse, vous devez rechercher la réponse », définissant cette méthode comme «génération augmentée par récupération.« Cette stratégie, explique-t-il, reflète les principes fondamentaux de l’éducation aux médias, qui impliquent d’évaluer les origines et le contexte de l’information.
La procédure consiste à croiser les informations de la source avec des vérités établies. Si l’information s’avère même légèrement incorrecte, la source doit être mise de côté et en chercher une autre. Huang souligne que le rôle de l’IA n’est pas seulement de fournir des réponses, mais aussi de mener des enquêtes préliminaires pour déterminer les réponses les plus précises.
Pour les réponses qui revêtent une importance significative, telles que les conseils médicaux, le responsable de Nvidia suggère qu’il est crucial de vérifier les informations auprès de diverses sources fiables. Cela implique que l’IA chargée de générer des réponses doit être capable de reconnaître lorsqu’elle manque d’informations suffisantes pour fournir une réponse, lorsqu’il n’y a pas de consensus clair sur la bonne réponse, ou lorsque certaines informations, comme l’issue d’événements futurs, n’est pas encore disponible.
Crédit image en vedette : Nvidia