Tech News Today se lit comme un bilan de l’ère de l’IA, où les modèles vidéo brûlent de l’argent plus rapidement qu’ils ne génèrent de revenus, les alliances stratégiques sont réécrites en temps réel et chaque surface, de votre téléviseur à vos archives de photos, est rééquipée d’une couche d’IA toujours active qui remodèle silencieusement la façon dont vous utilisez la technologie.
Actualité technologique quotidienne : 12 novembre 2025
Dans les histoires d’aujourd’hui, trois pressions ne cessent de se répéter :
- Premièrement, le coût brut de l’exploitation de modèles pionniers à grande échelle entre en conflit avec l’attente selon laquelle l’IA grand public devrait se sentir bon marché ou gratuite.
- Deuxièmement, les grandes plateformes ne font plus confiance aux seuls partenariats pour assurer leur place dans un éventuel paysage agro-alimentaire, elles construisent donc leurs propres voies parallèles tout en collaborant.
- Troisièmement, l’IA passe du terrain de démonstration à l’infrastructure, transformant les téléviseurs en assistants, les archives en toiles génératives, les nettoyeurs de stockage en mini-jeux et les plateformes vidéo en explicateurs en temps réel. Les entreprises qui remporteront cette phase seront celles qui parviendront à rendre l’IA ambiante et inévitable sans laisser l’économie ou la gouvernance échapper à leur contrôle.
OpenAI s’appuie sur les dépenses insoutenables de Sora pour gagner du temps et des données
Les estimations de Forbes suggèrent OpenAI dépense environ 15 millions de dollars par jour pour faire fonctionner Sorace qui représente environ 5,4 milliards de dollars par an et plus d’un quart des 20 milliards de dollars de revenus récurrents annuels prévus par l’entreprise. Le modèle est simple et brutal. Si 25 % des 4,5 millions d’utilisateurs iOS de Sora génèrent chacun environ 10 vidéos par jour et qu’un clip de 10 secondes coûte environ 1,30 dollar à produire, les chiffres se rapprochent davantage d’une facture d’énergie que d’une ligne de coût de logiciel.
OpenAI, qui aurait perdu plus de 12 milliards de dollars au dernier trimestre, a refusé de commenter l’analyse, mais le responsable de Sora, Bill Peebles, a déjà déclaré que l’économie était « totalement insoutenable ». Il s’agit du vieux manuel Internet à l’échelle vidéo. Vous subventionnez massivement le produit, vous récoltez des invites et des modèles d’utilisation comme données de formation, et vous êtes convaincu qu’une combinaison d’améliorations algorithmiques et de gains matériels rendra la production cinq fois moins chère d’ici 2026. Le risque est simple. Si les coûts ne baissent pas aussi rapidement que promis, OpenAI ne se contente pas de proposer un produit coûteux, il souscrit à toute une expérience culturelle de vidéo d’IA gratuite qui pourrait s’avérer beaucoup plus difficile à facturer plus tard.
La vision du modèle mondial de Yann LeCun est sur le point de quitter les murs de Meta
Yann LeCun, scientifique en chef de l’IA chez Meta, se préparerait à partir et à créer une startup axée sur les modèles mondiauxet il ne s’agit pas d’un remaniement de routine au sein de la haute direction. LeCun est l’une des figures fondatrices du domaine, depuis ses travaux LeNet sur les premiers réseaux neuronaux convolutifs pour la reconnaissance de l’écriture manuscrite à la fin des années 1980 et au début des années 1990 jusqu’à son rôle dans la création de FAIR en 2013 en tant que laboratoire de recherche fondamentale de Meta. Chez Meta, il a encouragé l’apprentissage auto-supervisé, la recherche sur des modèles mondiaux à long terme et les architectures de systèmes autonomes pouvant fonctionner dans des conditions d’incertitude. Le Financial Times rapporte qu’il est déjà en pourparlers pour lever des capitaux, la nouvelle société étant centrée sur des représentations structurées du monde physique et conceptuel pouvant soutenir la prédiction et la prise de décision.
Le timing est délicat pour Meta. La société a promis plus de 600 milliards de dollars d’investissements américains d’ici 2028 dans des initiatives en matière d’infrastructure et de main-d’œuvre d’IA, a pris une participation de 14,3 milliards de dollars dans Scale AI et a restructuré ses organisations d’IA tout en laissant intactes les unités d’élite comme Meta Superintelligence Labs. Si la vision de LeCun pour les modèles mondiaux trouve une exécution et une gouvernance plus propres en dehors de Meta, l’entreprise pourrait découvrir que son pari à long terme le plus important sur la compréhension des machines est abandonné au moment où elle a doublé la « superintelligence », et qu’elle doit maintenant rivaliser avec un fondateur qu’elle plaçait autrefois au centre de son histoire de recherche.
Microsoft réécrit son accord OpenAI pour lancer sa propre course AGI
Microsoft et OpenAI ont signé un nouvel accord définitif qui lève un frein majeur aux ambitions de Redmond. Selon les conditions précédentes, Microsoft n’aurait pas été autorisé à poursuivre de manière indépendante une agi jusqu’en 2030. L’accord mis à jour lève cette limite et ouvre la voie à Microsoft pour gérer son propre programme de modèle frontalier aux côtés d’OpenAI au lieu de traiter le laboratoire comme son pipeline agi par défaut. Le chef de l’IA de Microsoft, Mustafa Suleyman, a clairement exprimé ce changement, affirmant que l’entreprise doit être « autosuffisante en matière d’IA » et doit former des « modèles de pointe à toutes les échelles » sur ses propres calculs et données. Une nouvelle équipe MAI Superintelligence est conçue pour rendre cette déclaration opérationnelle en créant un groupe de recherche interne avec le même niveau d’ambition que le partenaire externe.
L’accord protège toujours la participation d’environ 13 milliards de dollars de Microsoft et renforce les droits de propriété intellectuelle sur les modèles et produits OpenAI, y compris les systèmes post-agi, jusqu’en 2032. Il impose également toute revendication d’agi par OpenAI par le biais d’un groupe d’experts indépendants plutôt que d’un communiqué de presse unilatéral. Le résultat est une double piste plus explicite. Microsoft continuera de distribuer et de monétiser les modèles OpenAI, mais il n’est plus structurellement tenu d’espérer que la feuille de route d’OpenAI s’aligne parfaitement sur son propre timing stratégique.
Samsung transforme le téléviseur en un assistant IA principal
Vision AI Companion de Samsung transforme sa gamme de téléviseurs 2025 en un assistant polyvalent qui se trouve sur le plus grand écran de la pièce plutôt que sur un haut-parleur intelligent posé sur une table d’appoint. La fonctionnalité est une couche conversationnelle qui permet aux utilisateurs de demander pourquoi un acteur est connu, qui a créé une œuvre d’art à l’écran ou quelle était la partition d’un jeu référencé, puis d’aligner les réponses sur la vidéo sans interrompre la lecture.
Image : Samsung
Au-delà de la reconnaissance, Vision AI Companion propose des recommandations de spectacles et de films, donne des conseils culinaires, partage des conseils de voyage en fonction de destinations ou de thèmes et fait connaître les restaurants locaux. Il tente essentiellement de compresser le réflexe « décrochez votre téléphone et recherchez » en une seule interaction qui ne quitte jamais le téléviseur. Le système utilise des modèles de Microsoft Copilot et Perplexity et coordonne d’autres fonctionnalités de Samsung AI telles que l’optimisation automatique des images et la traduction en direct via des invites conversationnelles. Distribué sur toute la gamme de téléviseurs 2025 avec prise en charge de 10 langues et positionné dans une maison où le téléviseur est déjà le point focal naturel, il s’agit de la tentative de Samsung de revendiquer le salon comme une surface d’IA avant qu’un écosystème concurrent n’y définisse le comportement par défaut.
La fuite du Galaxy S26 se concentre sur les mises à niveau pratiques de l’appareil photo et les gains réels de la batterie
Fuite du firmware pour les Galaxy S26 et S26 Plus de Samsung suggère une mise à jour générationnelle qui écoute les plaintes des utilisateurs au lieu de courir après les slogans marketing. Les deux téléphones devraient passer du capteur principal ISOCELL S5KGN3 de 50 mégapixels de longue durée au plus récent ISOCELL S5KGNG de 50 mégapixels et remplacer le téléobjectif de 10 mégapixels S5K3K1 par un module téléobjectif S5K3LD de 12 mégapixels. Sur le papier, les améliorations de résolution sont modestes. En pratique, les nouveaux modules ciblent des images de zoom plus nettes et des plages hybrides plus propres, une réponse directe aux critiques selon lesquelles les modèles non Ultra sont à la traîne en termes de clarté du téléobjectif. Le Sony IMX564 ultra-large de 12 mégapixels semble inchangé, ce qui est révélateur. Samsung semble croire que ses problèmes résident dans les performances primaires et de zoom, et non dans l’ultra-large.
Du côté de la vidéo, le micrologiciel pointe vers Advanced Professional Video jusqu’à 4K à 60 images par seconde sur les caméras avant et arrière, ce qui indique que les créateurs sont censés traiter n’importe quel objectif comme un objectif principal viable. En dessous, la répartition habituelle demeure, avec Exynos 2600 dans la plupart des régions et Snapdragon 8 Elite Gen 5 sur des marchés comme les États-Unis, tandis que l’APV reste pris en charge sur les deux. Les changements de batterie sont asymétriques. Le S26 passerait de 4 000 mAh à 4 300 mAh, tandis que le S26 Plus reste à 4 900 mAh, avec de réels gains attendus grâce à l’amélioration de l’efficacité et à une éventuelle charge magnétique Qi2. Si la fuite persiste, il s’agit d’un cycle de raffinement conçu pour resserrer l’expérience là où elle s’effondre réellement lors d’une utilisation quotidienne, et non pour gonfler les chiffres sur une diapositive.
La fonction Adaptive Power d’Apple recâble discrètement les attentes en matière de batterie de l’iPhone
Puissance adaptative dans iOS 26 est un petit label pour un changement significatif dans la façon dont Apple utilise l’IA pour gérer le matériel qu’il livre déjà. Contrairement au mode faible consommation, qui atténue les écrans et réduit l’activité en arrière-plan de manière générale, Adaptive Power utilise l’intelligence de l’appareil pour connaître environ une semaine du comportement de l’utilisateur, puis réduit les performances uniquement dans les moments où la batterie en bénéficierait le plus, comme lors d’un enregistrement vidéo intensif, d’une retouche photo ou d’un jeu. Il est activé par défaut sur la série iPhone 17 et l’iPhone Air et est disponible en option pour les appareils compatibles Apple Intelligence comme la gamme iPhone 16 et les modèles iPhone 15 Pro.
Lorsqu’il démarre, les utilisateurs voient une notification, mais il n’y a pas de nouveau modèle d’interaction à apprendre. La fonctionnalité se trouve sous Paramètres, dans la section Batterie, en tant que nouvelle option de mode d’alimentation avec une bascule supplémentaire pour les notifications. Le point le plus intéressant est stratégique. Apple associe ce type de gestion fine de l’alimentation directement à sa pile Apple Intelligence et la maintient hors iPad et Mac, même sur les appareils prenant en charge Apple Intelligence. En d’autres termes, la durée de vie de la batterie devient un autre domaine dans lequel Apple peut différencier les nouveaux matériels iPhone prêts pour l’IA sans avoir à en faire un spectacle sur scène.
Google One transforme le nettoyage du stockage en un flux de décision glissable
Le gestionnaire de stockage mis à jour de Google One tente de transformer la lourde tâche cognitive de nettoyage des fichiers en quelque chose de plus proche d’un flux guidé. La nouvelle version, livrée dans Google One 1.287.828055836, actualise la page Storage Manager et les flux « Nettoyage » pour Google Photos et Google Drive avec des éléments de conception Material 3 Expressive et une nouvelle interface par balayage. Dans le volet de nettoyage des photos, les vignettes sont plus petites afin que davantage d’éléments puissent s’afficher à l’écran, la coche « Sélectionner tout » s’aligne sur le nouveau langage de conception et les puces de filtre occupent une seule rangée horizontale pour une meilleure numérisation. Une nouvelle carte en haut incite les utilisateurs à supprimer les photos et vidéos redondantes.
Le volet de nettoyage du lecteur reflète cette structure, avec une carte d’encouragement pour les documents et téléchargements volumineux ou inutiles, mais conserve des vignettes plus grandes pour préserver la lisibilité des noms de fichiers. Une fois que les utilisateurs sélectionnent les éléments à examiner, l’expérience passe à une vue de style Tinder où vous faites glisser votre doigt pour conserver ou supprimer chaque suggestion, un élément à la fois. Android Authority note que ce mécanisme avait déjà été testé dans Google Photos, mais qu’il est désormais intégré à Google One, avec un déploiement progressif. Cette décision reconnaît une réalité fondamentale du stockage dans le cloud. Si Google souhaite que les utilisateurs continuent de payer pour la capacité, il doit faire en sorte que l’élagage ressemble moins à une maintenance de compte qu’à une boucle de décision légère, presque informelle.
La mise à jour de Google Photos AI rend vos archives moins statiques
Google Photos étend sa boîte à outils d’IA à plus de 100 pays et plus de 17 langueset l’effet cumulatif est que l’application ressemble moins à une sauvegarde passive qu’à une base de données visuelle manipulable. Les utilisateurs peuvent désormais modifier des objets et des personnes spécifiques sur les photos, s’appuyer sur un éditeur repensé avec des commandes simplifiées et utiliser un bouton « Demander » pour demander des modifications ou un contexte via un langage naturel. L’édition basée sur des invites lancée avec la série Pixel 10 s’étend aux utilisateurs iOS aux États-Unis, qui peuvent prononcer ou saisir des commandes telles que « enlever les lunettes de soleil de Riley » ou « faire sourire Engel » via un point d’entrée « Aidez-moi à modifier » qui comprend les groupes de visages.
Vidéo : Google
Google intègre également son modèle d’image Nano Banana, qui permet de relooker des formats tels que des portraits ou des dessins animés de la Renaissance et prend en charge des modèles d’IA qui transforment des photos existantes en portraits rétro ou en images de style figurine sur Android aux États-Unis et en Inde. Parallèlement, une fonction de recherche basée sur l’IA, lancée pour la première fois aux États-Unis, est en cours de déploiement dans plus de 100 pays avec la prise en charge de langues telles que l’arabe, le bengali, le français, l’allemand, l’hindi, l’indonésien, l’italien, le japonais, le portugais et l’espagnol. Plus ces outils se répandent, plus une photothèque personnelle cesse d’être un enregistrement fixe d’événements et commence à devenir une matière première pour une réinterprétation continue, à la fois puissante et légèrement déstabilisante.
Les expériences de Google sur les PC Android montrent à quel point il veut une histoire d’ordinateur portable
Confirmation de Google de fusionner Chrome OS avec Androidcombiné aux fuites selon lesquelles Qualcomm teste Android 16 sur les puces PC de la série Snapdragon X, indique clairement que la société n’est pas disposée à céder indéfiniment le récit des ordinateurs portables à Windows et macOS. Le côté Chrome OS est présenté comme une transition sur plusieurs années conçue pour réduire l’ingénierie en double et centraliser la compatibilité, la sécurité et les fonctionnalités des applications sur les téléphones, les tablettes et les écrans plus grands.
Le côté Qualcomm est plus technique mais tout aussi révélateur. Les référentiels internes répertorieraient la prise en charge d’Android 16 pour « Purwa », le nom de code de la famille Snapdragon X, y compris les manifestes pour les sous-systèmes de vision par ordinateur, d’audio, de BTFM et de caméra qui ressemblent à un système réel, et non à une version générique. Les sources prennent soin de préciser que cela ne garantit pas que les ordinateurs portables Snapdragon X fonctionnant sous Android soient imminents. Les comprimés détachables 2 en 1 sont considérés comme des cibles précoces plus probables. Le problème bloquant est la maturité du logiciel.
Rumor: Android computers appear to be on the way.
Qualcomm is working on Android 16 support for the X Elite and X (series). The picture shows purwa (Snapdragon X)'s Android 16 private code list, and Qualcomm has already uploaded the Android code for X Elite and X (to the… pic.twitter.com/pQ1vnNOvgQ
— Jukan (@Jukanlosreve) November 11, 2025
Les différents « modes de bureau » d’Android n’ont jamais pleinement répondu aux attentes d’un utilisateur d’ordinateur portable qui souhaite une gestion robuste des fenêtres, des raccourcis clavier et un comportement d’affichage externe qui ne semble pas fragile. Google annonce désormais qu’il tirera parti de l’expérience DeX de Samsung pour créer une interface de bureau plus crédible. En attendant, le PC Android reste plus proche d’un projet pilote récurrent que d’une gamme de produits définie, quelle que soit la quantité de travail d’ingénierie effectué en coulisses.
Le nouveau chat AI de YouTube brouille la frontière entre regarder et rechercher
Bouton « Demander » alimenté par Gemini de YouTube transforme une partie importante de son catalogue en quelque chose de plus proche d’une surface de connaissances conversationnelle. Sur les vidéos éligibles, les spectateurs voient une option « Demander » sous le lecteur qui ouvre une discussion à l’écran. À partir de là, ils peuvent saisir des questions personnalisées ou utiliser des invites organisées pour résumer la vidéo, obtenir des recommandations de contenu connexe ou demander des explications sur des concepts spécifiques pendant que la vidéo continue de jouer.
La fonctionnalité est disponible en anglais pour les utilisateurs âgés de 18 ans et plus sur iPhone, Android et Windows aux États-Unis, au Canada, en Nouvelle-Zélande et en Inde, et un déploiement plus large est prévu. YouTube inclut une clause de non-responsabilité visible indiquant que l’IA peut commettre des erreurs et encourage les utilisateurs à vérifier les informations, ce qui est nécessaire mais ne répond qu’en partie au changement plus profond. Si un utilisateur peut extraire des réponses structurées, des questions de suivi et des suggestions de visualisation supplémentaires à partir d’une vidéo sans quitter la page, la frontière entre « plate-forme vidéo » et « moteur de recherche » se rétrécit encore davantage. Cela a des conséquences pour les créateurs, dont le travail peut de plus en plus être utilisé comme entrée dans un flux de réponses, et pour Google, qui possède désormais une autre porte d’entrée pour les requêtes factuelles qui contourne complètement la recherche traditionnelle.





