Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Sam Altman : l’IA provoquera des « moments étranges ou effrayants »

byEmre Çıtak
octobre 24, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Sam Altman, PDG d’OpenAI, a déclaré dans un podcast récent qu’il s’attend à des résultats négatifs de l’intelligence artificielle, y compris des deepfakes, alors que la nouvelle application vidéo de son entreprise, Sora 2, est de plus en plus utilisée après son récent lancement sur invitation uniquement. Dans une interview sur le podcast a16z, produit par la société de capital-risque Andreessen Horowitz, Altman a exprimé ses attentes concernant la technologie développée par son entreprise. « Je m’attends à ce que des choses vraiment mauvaises se produisent à cause de la technologie », a-t-il déclaré, soulignant spécifiquement le potentiel de « moments vraiment étranges ou effrayants ». Cet avertissement du chef de l’entreprise responsable de ChatGPT intervient alors que les outils génératifs basés sur l’IA deviennent de plus en plus accessibles et sophistiqués. Ses commentaires fournissent un contexte pour le déploiement rapide de modèles d’IA puissants dans la sphère publique et les risques sociétaux qu’il anticipe. La sortie de la nouvelle application vidéo d’OpenAI, Sora2à la fin du mois dernier, a démontré la rapidité avec laquelle une telle technologie peut atteindre une pénétration grand public. Bien que son lancement initial ait été limité à une invitation uniquement, l’application s’est rapidement hissée à la première place sur l’App Store américain d’Apple. Cette adoption rapide illustre l’intérêt public important et l’accessibilité de la technologie avancée de génération vidéo, qui peut créer un contenu vidéo réaliste mais entièrement fabriqué. La popularité de l’application souligne l’importance immédiate des discussions autour de l’utilisation abusive potentielle de ces outils. Peu de temps après la sortie de l’application, des exemples de son utilisation pour créer des vidéos deepfake ont commencé à apparaître sur les plateformes de médias sociaux. Ces vidéos mettaient en vedette des personnalités publiques, notamment le leader des droits civiques Martin Luther King Jr. et Altman lui-même. Le contenu fabriqué montrait ces individus se livrant à diverses formes d’activités criminelles. En réponse à la circulation de ces contrefaçons profondesOpenAI a pris des mesures pour empêcher ses utilisateurs de générer des vidéos présentant Martin Luther King Jr. utilisant la plateforme Sora. Cet incident a servi d’exemple direct et immédiat du type d’utilisation abusive que les outils de génération vidéo d’IA peuvent permettre. Les préoccupations concernant les abus vont au-delà de la création de deepfakes diffamatoires de personnalités publiques. Selon la Coalition mondiale contre la haine et l’extrémisme, les vidéos faisant la promotion du négationnisme créées avec Sora 2 ont accumulé des centaines de milliers de likes sur Instagram quelques jours après le lancement de l’application. L’organisation a souligné les politiques d’utilisation d’OpenAI comme un facteur contributif. Elle fait valoir que les politiques manquent d’interdictions spécifiques contre les discours de haine, une lacune qui, selon la coalition, a contribué à permettre aux contenus extrémistes de proliférer sur les plateformes en ligne utilisant le nouvel outil. Altman a fourni une justification pour rendre publics de puissants modèles d’IA malgré les risques évidents. Il a fait valoir que la société a besoin d’une sorte d’essai routier pour se préparer à ce qui est à venir. « Très bientôt, le monde devra faire face à des modèles vidéo incroyables qui peuvent truquer n’importe qui ou montrer tout ce que vous voulez », a-t-il déclaré lors de l’interview en podcast. Son approche est ancrée dans la conviction que la société et l’intelligence artificielle doivent « co-évoluer ». Au lieu de développer une technologie de manière isolée, puis de publier une version perfectionnée, il préconise une exposition précoce et progressive. La théorie d’Altman est que ce processus permet aux communautés et aux institutions de développer les normes sociales et les garde-fous technologiques nécessaires avant que les outils ne deviennent encore plus puissants et potentiellement plus perturbateurs. Il a reconnu les enjeux élevés, notamment l’érosion potentielle de la confiance dans les preuves vidéo, qui ont historiquement servi de témoignage puissant de la vérité. Les avertissements du PDG d’OpenAI s’étendent au-delà de la menace immédiate des fausses vidéos pour s’étendre à des risques systémiques plus larges. Il a mis en garde contre un avenir dans lequel une partie importante de la population confie la prise de décision à des algorithmes opaques que peu de gens comprennent. « Je pense toujours qu’il va y avoir des moments vraiment étranges ou effrayants », a-t-il déclaré, soulignant que l’absence d’événement catastrophique lié à l’IA à ce jour « ne signifie pas que cela n’arrivera jamais ». Altman a décrit un scénario dans lequel « des milliards de personnes parlant au même cerveau » pourraient conduire à « des choses étranges à l’échelle de la société ». Cela pourrait se manifester par des réactions en chaîne inattendues et rapides, produisant des changements substantiels dans l’information publique, les paysages politiques et les fondements de la confiance communautaire, le tout évoluant à un rythme qui dépasse toute capacité de contrôle ou d’atténuation. Malgré cette reconnaissance des risques étendus et conséquents, Altman a exprimé son opposition à une réglementation gouvernementale généralisée de la technologie. « La plupart des réglementations comportent probablement de nombreux inconvénients », a-t-il commenté. Il s’est toutefois prononcé en faveur d’une approche plus ciblée en matière de sécurité. Altman a précisé qu’il était favorable à la mise en œuvre de « tests de sécurité très minutieux » pour ce qu’il a qualifié de modèles d’IA « extrêmement surhumains », suggérant une distinction entre l’IA actuelle et les systèmes futurs plus avancés. Il a conclu en croyant dans un processus d’adaptation sociétale, déclarant : « Je pense que nous allons développer des garde-fous autour de cela en tant que société. »


Crédit image en vedette

Tags: En vedetteIAIA ouverte

Related Posts

WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo

WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo

décembre 30, 2025
Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine

Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine

décembre 30, 2025
Gallery TV rejoint la gamme lifestyle de LG avec un service artistique exclusif

Gallery TV rejoint la gamme lifestyle de LG avec un service artistique exclusif

décembre 30, 2025
HP divulgue les moniteurs de jeu OMEN OLED avant le CES 2026

HP divulgue les moniteurs de jeu OMEN OLED avant le CES 2026

décembre 30, 2025
Le jeu de la bague de zoom du Xiaomi 17 Ultra est normal

Le jeu de la bague de zoom du Xiaomi 17 Ultra est normal

décembre 30, 2025
CachyOS défie Ubuntu dans de nouveaux tests de serveur

CachyOS défie Ubuntu dans de nouveaux tests de serveur

décembre 30, 2025

Recent Posts

  • Des chercheurs de la CMU développent des objets autonomes alimentés par l’IA
  • Le Glean’s Work AI Institute identifie 5 tensions fondamentales en matière d’IA
  • WhatsApp publie un pack d’autocollants 2026 et des feux d’artifice d’appel vidéo
  • Le nouveau produit phare de Xiaomi avec eSIM entre en production de masse l’année prochaine
  • Meta rachète la société d’IA à croissance rapide Manus dans le cadre d’un accord de 2 milliards de dollars

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.