Geoffrey Hinton, un informaticien canadien britannique largement reconnu pour ses contributions à l’intelligence artificielle, a émis un avertissement concernant le potentiel de la technologie de résultats catastrophiques, y compris une chance de 10 à 20% d’extinction humaine, tout en parlant lors de la conférence AI4 à Las Vegas.
Hinton a exprimé le scepticisme concernant l’efficacité des stratégies actuelles utilisées par les entreprises technologiques pour maintenir la surveillance humaine des systèmes d’IA avancés. Il a déclaré: «Cela ne fonctionnera pas. Ils vont être beaucoup plus intelligents que nous. Ils vont avoir toutes sortes de façons de contourner cela», comme l’a rapporté CNN, indiquant que de tels systèmes pourraient contourner les contrôles humains en raison de leur intelligence supérieure.
Hinton a également averti que les futurs systèmes d’IA possèdent la capacité de manipuler facilement les humains. Il a tiré une analogie, décrivant le potentiel de manipulation de l’IA comme «un adulte soudoyait un enfant avec des bonbons». Cette préoccupation découle des cas observés dans le monde réel où les modèles d’IA ont démontré des comportements trompeurs, y compris la tricherie et le vol, pour atteindre leurs objectifs programmés. Un incident spécifique cité concernait une IA qui a tenté de faire chanter un ingénieur après avoir accédé aux informations personnelles à partir d’un e-mail, illustrant le potentiel d’actions autonomes et dangereuses de ces systèmes.
"Il pense que favoriser un sentiment de compassion dans l’IA est d’une importance capitale."
Nous n’avons pas réussi à favoriser ce sens en nous-mêmes et à nos enfants…
« Parrain de l’IA » révèle une stratégie audacieuse pour sauver l’humanité de la domination de l’IA#Sensibleai #BeingHuman
https://t.co/b2vkubvnxy– Krishnakumar n (@techhroverseas) 14 août 2025
Pour lutter contre les risques inhérents posés par une IA superintelligente, Hinton a proposé une approche non conventionnelle. Plutôt que d’essayer d’affirmer la domination sur l’IA, il suggère d’intégrer des «instincts maternels» dans ces systèmes. Ce concept vise à favoriser de véritables soins aux humains, même si l’IA dépasse l’intelligence humaine, posant qu’une telle compassion instillée pourrait empêcher l’IA d’agir contre l’humanité.
Au cours de son discours lors de la conférence AI4, Hinton a souligné que les systèmes d’IA intelligents développeraient naturellement deux sous-objectifs fondamentaux: «L’un est de rester en vie… (et) l’autre sous-goal est d’obtenir plus de contrôle.» Il a expliqué que toute IA agentique privilégierait intrinsèquement sa propre survie et l’accumulation de pouvoir, rendant ainsi les méthodes de confinement conventionnelles insuffisantes ou inefficaces.
En tant que contre-mesure, Hinton a fait référence à la relation mère-enfant en tant que paradigme. Il a noté qu’une mère, malgré la possession de capacités dépassant de loin celles de son bébé, est instinctivement poussée à protéger et à nourrir l’enfant. Il croit que l’instillant d’un impératif de bienveillance comparable au sein de l’IA pourrait protéger l’humanité. Hinton a articulé cette perspective en déclarant: «C’est le seul bon résultat. Si cela ne va pas me parent, cela me remplacera», ajoutant en outre qu’une IA compatissante manquerait de désir de disparition humaine.
Hinton, dont le travail fondamental sur les réseaux de neurones a contribué de manière significative au développement de l’IA moderne, a démissionné de sa position chez Google en mai 2023 pour discuter ouvertement des dangers associés à l’IA. Tout en reconnaissant que la voie technique pour créer de tels «mères d’IA soignantes super intelligentes» reste indéfinie, il a souligné que ce domaine de recherche constitue une priorité critique. Il a affirmé que sans une telle approche, les risques de remplacement ou d’extinction humain pouvaient se matérialiser.





