Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Apple MM1 n’est pas une puce mais une IA multimodale

byKerem Gülen
mars 18, 2024
in Non classé
Share on FacebookShare on Twitter

Dans un geste discret, l’équipe de recherche d’Apple a a publié un document mettant en lumière les avancées de l’entreprise dans MM1, une suite de modèles de langage multimodaux avancés. Ces modèles sont conçus pour diverses applications, notamment l’inférence en langage naturel, le sous-titrage d’images et la réponse visuelle à des questions. Cette révélation indique qu’Apple, traditionnellement réticent à l’égard de ses projets d’IA alors que ses concurrents saluent l’IA comme l’avenir de la technologie, est non seulement en train de rattraper son retard, mais est également prêt à donner le ton dans l’industrie.

Quelle est l’étendue d’Apple MM1 ?

«Dans ce travail, nous discutons de la création de modèles multimodaux multimodaux (MLLM) performants. Nous démontrons que pour la pré-formation multimodale à grande échelle, l’utilisation d’un mélange judicieux de données de légende d’image, de texte d’image entrelacé et de données textuelles uniquement est cruciale pour obtenir des résultats de pointe en quelques prises de vue sur plusieurs benchmarks, comparés à d’autres résultats de pré-formation publiés », indique le document.

Le document développe MM1, le caractérisant comme un ensemble robuste de modèles multimodaux, capable de prendre en charge jusqu’à 30 milliards de paramètres. Il met en évidence leurs performances exceptionnelles, affinées sur un éventail de références multimodales, plaçant ces modèles à l’avant-garde des technologies fondamentales de l’IA. Selon l’équipe d’Apple, les modèles multimodaux de langage étendu (MLLM) représentent une évolution significative par rapport aux LLM traditionnels, dotés de capacités améliorées.

Les chercheurs d’Apple sont convaincus d’avoir franchi une étape importante dans la formation des modèles pour interpréter à la fois les images et le texte. Ils prévoient que leurs connaissances aideront considérablement la communauté à développer des modèles capables de gérer des ensembles de données de plus en plus volumineux de manière plus efficace et plus fiable. Cependant, malgré les idées prometteuses partagées dans le document, l’application pratique et les tests d’Apple MM1 restent à l’horizon, l’accès au modèle lui-même n’ayant pas encore été ouvert à une évaluation externe.

pomme mm1
Les chercheurs d’Apple sont convaincus d’avoir franchi une étape importante dans la formation des modèles pour interpréter à la fois les images et le texte (Crédit image)

L’avenir de l’aventure d’Apple dans les grands modèles de langage, en particulier MM1, est en jeu, avec des spéculations autour du développement par l’entreprise d’un cadre LLM baptisé en interne « Ajax », dans le cadre d’un investissement ambitieux d’un milliard de dollars dans la recherche et le développement de l’IA. Pour alimenter cet incendie, des rumeurs ont circulé concernant l’acquisition par Apple de la startup DarwinAI plus tôt cette année, une décision censée viser à renforcer ces efforts.

Le PDG d’Apple, Tim Cook, a rompu le silence d’un an de l’entreprise sur ses ambitions en matière d’IA lors d’une conférence téléphonique post-résultats en février, en déclarant :

« Nous considérons l’IA et l’apprentissage automatique comme des technologies fondamentales, et elles font partie intégrante de pratiquement tous les produits que nous commercialisons. Nous sommes ravis de partager les détails de notre travail en cours dans cet espace plus tard cette année.

Plus encore, Apple a récemment présenté les capacités d’IA de son nouveau MacBook Air M3, faisant allusion au rôle important que l’IA jouera dans ses futures offres. Dans un pivot stratégique, l’entreprise a choisi de se dissoudre Projet Titan le mois dernier, réorientant son attention vers des domaines en plein essor comme l’intelligence artificielle, signalant un recalibrage de ses priorités en matière d’innovation.


Crédit image en vedette : Kerem Gülen/Milieu du voyage

Related Posts

La panne de Verizon de 10 heures est enfin résolue

La panne de Verizon de 10 heures est enfin résolue

janvier 15, 2026
OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW

OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW

janvier 15, 2026
Netflix lance des podcasts vidéo mettant en vedette Pete Davidson et Michael Irvin

Netflix lance des podcasts vidéo mettant en vedette Pete Davidson et Michael Irvin

janvier 15, 2026
Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars

Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars

janvier 15, 2026
Digg lance une version bêta publique ouverte en tant que rival de Reddit sans toxicité

Digg lance une version bêta publique ouverte en tant que rival de Reddit sans toxicité

janvier 15, 2026
NVIDIA force la mise à niveau des graphiques RTX avec la version officielle DLSS 4.5

NVIDIA force la mise à niveau des graphiques RTX avec la version officielle DLSS 4.5

janvier 15, 2026

Recent Posts

  • La panne de Verizon de 10 heures est enfin résolue
  • OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW
  • Netflix lance des podcasts vidéo mettant en vedette Pete Davidson et Michael Irvin
  • Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars
  • Digg lance une version bêta publique ouverte en tant que rival de Reddit sans toxicité

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.