OpenAI a mis à jour le fonctionnement de son mode vocal dans ChatGPT, déplaçant les interactions vocales directement dans le fil de discussion en cours plutôt que de les isoler dans une interface distincte. Le changement, applicable à la fois au Web et aux applications mobiles, permet aux utilisateurs de voir une transcription en temps réel de leur conversation parlée aux côtés de leur historique textuel standard.
You can now use ChatGPT Voice right inside chat—no separate mode needed.
You can talk, watch answers appear, review earlier messages, and see visuals like images or maps in real time.
Rolling out to all users on mobile and web. Just update your app. pic.twitter.com/emXjNpn45w
— OpenAI (@OpenAI) November 25, 2025
En appuyant sur l’icône « forme d’onde » à côté du champ de texte, les utilisateurs peuvent lancer une session vocale qui reste dans la fenêtre de discussion principale. Cette intégration permet à l’IA de fournir un contexte visuel à ses réponses verbales. Lors d’une démonstration, OpenAI a montré le modèle affichant une carte des boulangeries locales et des photos de pâtisseries tout en en discutant simultanément, plutôt que de s’appuyer uniquement sur l’audio.
Bien que la nouvelle vue en ligne soit la vue par défaut, OpenAI a conservé l’interface originale plein écran basée sur les orbes pour les utilisateurs qui la préfèrent. Cette disposition peut être restaurée en sélectionnant « Mode séparé » dans la section Mode vocal des paramètres de l’application. Cette mise à jour vise à mieux utiliser la nature multimodale de l’IA, en mélangeant les sorties vocales, textuelles et visuelles en un seul flux.





