Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Huang de NVIDIA décrit la voie vers l’AGI, dans 5 ans

byKerem Gülen
mars 20, 2024
in Non classé

L’intelligence artificielle générale (AGI), une forme théorique d’IA capable d’imiter l’intelligence humaine, pourrait apporter des changements radicaux dans le monde de la technologie. Contrairement à l’IA étroite d’aujourd’hui, programmée pour des tâches spécifiques telles que l’identification des défauts des produits ou la synthèse d’articles de presse, l’AGI promet une adaptabilité à un large éventail de défis basés sur la réflexion. Cependant, les personnalités du secteur, comme le PDG de Nvidia, Jensen Huang, se montrent naturellement prudentes lorsqu’il s’agit de prédire un calendrier concret pour son émergence.

AGI pourrait être dans 5 ans

Les implications éthiques et sociétales de l’AGI sont importantes. Si ces systèmes développent leurs propres objectifs mal alignés sur les objectifs humains, les conséquences pourraient être graves. La crainte est qu’une AGI suffisamment avancée puisse devenir incontrôlable, avec des résultats défiant toute prévision ou inversion.

Tout en hésitant à s’engager dans des scénarios apocalyptiques privilégiés par les médias, Huang reconnaît la complexité du développement de l’AGI. Un obstacle majeur consiste à établir des critères objectifs pour définir ce qui constitue une véritable AGI. Est-ce purement basé sur la performance ? L’AGI pourrait-elle être mesurée par sa capacité à raisonner, planifier ou apprendre de manière indépendante ?

Huang de NVIDIA décrit la voie vers l'AGI et fixe un objectif sur 5 ans
Huang reconnaît la complexité du développement de l’AGI (Crédit image)

Huang a profité de l’occasion pour partager son point de vue avec les médias sur ce sujet. Il postule que la prévision de l’arrivée d’une AGI réalisable dépend de la définition de l’AGI elle-même. Il fait une comparaison, notant que malgré la complexité introduite par les fuseaux horaires, la date du Nouvel An et celle du début de l’année 2025 sont claires.

« Si nous spécifions que l’AGI est quelque chose de très spécifique, un ensemble de tests dans lesquels un logiciel peut très bien réussir – ou peut-être 8 % mieux que la plupart des gens – Je crois que nous y arriverons d’ici 5 ans« , note Huang. Il propose des jalons hypothétiques de l’AGI, tels que des experts surpassant les examens juridiques, économiques ou médicaux. Pourtant, tant que le concept même d’AGI n’est pas défini plus concrètement, des prédictions précises restent difficiles.

La question des hallucinations

Une autre préoccupation majeure soulevée concerne la question de l’IA »hallucinations» – ces déclarations apparemment plausibles mais finalement fausses générées par certains modèles d’IA. Huang se dit cependant convaincu que ce problème peut être résolu en mettant l’accent sur des pratiques de vérification rigoureuses.

Huang souligne la nécessité d’ajouter une dimension de recherche à la création de réponses générées par l’IA, en la qualifiant de « génération augmentée par récupération ». Il insiste : « Ajoutez une règle : pour chaque réponse, vous devez rechercher la réponse », définissant cette méthode comme «génération augmentée par récupération.« Cette stratégie, explique-t-il, reflète les principes fondamentaux de l’éducation aux médias, qui impliquent d’évaluer les origines et le contexte de l’information.

Huang de NVIDIA décrit la voie vers l'AGI et fixe un objectif sur 5 ans
Une autre préoccupation majeure soulevée concerne la question des « hallucinations » de l’IA (Crédit image)

La procédure consiste à croiser les informations de la source avec des vérités établies. Si l’information s’avère même légèrement incorrecte, la source doit être mise de côté et en chercher une autre. Huang souligne que le rôle de l’IA n’est pas seulement de fournir des réponses, mais aussi de mener des enquêtes préliminaires pour déterminer les réponses les plus précises.

Pour les réponses qui revêtent une importance significative, telles que les conseils médicaux, le responsable de Nvidia suggère qu’il est crucial de vérifier les informations auprès de diverses sources fiables. Cela implique que l’IA chargée de générer des réponses doit être capable de reconnaître lorsqu’elle manque d’informations suffisantes pour fournir une réponse, lorsqu’il n’y a pas de consensus clair sur la bonne réponse, ou lorsque certaines informations, comme l’issue d’événements futurs, n’est pas encore disponible.


Crédit image en vedette : Nvidia

Related Posts

Ce robot Amazon a un sentiment de sensation

Ce robot Amazon a un sentiment de sensation

mai 9, 2025
Évaluation des médicaments Openai et Xai parlant avec la FDA

Évaluation des médicaments Openai et Xai parlant avec la FDA

mai 8, 2025
Crowdsstrike licencie 500 emplois malgré les finances en plein essor

Crowdsstrike licencie 500 emplois malgré les finances en plein essor

mai 8, 2025
Safari peut obtenir des options de recherche d’ouverture ou de perplexité AI

Safari peut obtenir des options de recherche d’ouverture ou de perplexité AI

mai 8, 2025
Les plongées à rayures dans les stablescoins déploient les principaux outils d’IA

Les plongées à rayures dans les stablescoins déploient les principaux outils d’IA

mai 8, 2025
LLM Red Teaming

LLM Red Teaming

mai 8, 2025

Recent Posts

  • Ce robot Amazon a un sentiment de sensation
  • Évaluation des médicaments Openai et Xai parlant avec la FDA
  • Crowdsstrike licencie 500 emplois malgré les finances en plein essor
  • Safari peut obtenir des options de recherche d’ouverture ou de perplexité AI
  • Les plongées à rayures dans les stablescoins déploient les principaux outils d’IA

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.