Meta commence à tester sa première puce d’apprentissage de l’IA en interne
Le 11 mars 2025
La société Meta, propriétaire de Facebook, teste sa première puce interne pour l’entraînement des systèmes d’intelligence artificielle, une étape clé alors qu’elle s’apprête à concevoir davantage de silicium personnalisé et à réduire sa dépendance à l’égard de fournisseurs externes comme Nvidia, ont déclaré deux sources à l’agence Reuters.
La plus grande entreprise de médias sociaux au monde a commencé un petit déploiement de la puce et prévoit d’augmenter la production pour une utilisation à grande échelle si le test se déroule bien, ont déclaré les sources.
La volonté de développer des puces en interne fait partie d’un plan à long terme de Meta visant à réduire ses coûts d’infrastructure colossaux, alors que l’entreprise fait des paris coûteux sur les outils d’intelligence artificielle pour stimuler sa croissance.
Meta, qui possède également Instagram et WhatsApp, a prévu des dépenses totales pour 2025 de 114 à 119 milliards de dollars, dont jusqu’à 65 milliards de dollars de dépenses en capital, en grande partie motivées par les dépenses en infrastructure d’IA.
L’une des sources a déclaré que la nouvelle puce d’entraînement de Meta est un accélérateur dédié, ce qui signifie qu’elle est conçue pour traiter uniquement les tâches spécifiques à l’IA. Cela peut la rendre plus économe en énergie que les unités de traitement graphique intégrées (GPU) généralement utilisées pour les charges de travail d’IA.
Meta travaille avec le fabricant de puces TSMC, basé à Taïwan, pour produire la puce, a indiqué cette personne.
Le déploiement test a commencé après que Meta a terminé son premier “tape-out” de la puce, un marqueur important de succès dans le travail de développement de silicium qui implique l’envoi d’une conception initiale dans une usine de fabrication de puces, a déclaré l’autre source.
Un “tape-out” typique coûte des dizaines de millions de dollars et prend environ trois à six mois, sans garantie de réussite du test. En cas d’échec, Meta devra diagnostiquer le problème et recommencer l’étape de l’enregistrement.
Meta et TSMC se sont refusés à tout commentaire.
La puce est la plus récente de la série Meta Training and Inference Accelerator (MTIA) de l’entreprise. Le programme a connu des débuts hésitants pendant des années et, à un moment donné, une puce à un stade de développement similaire a été mise au rebut.
Cependant, l’année dernière, Meta a commencé à utiliser une puce MTIA pour effectuer l’inférence, ou le processus impliqué dans l’exécution d’un système d’IA au fur et à mesure que les utilisateurs interagissent avec lui, pour les systèmes de recommandation qui déterminent le contenu qui apparaît sur les fils d’actualité de Facebook et d’Instagram.
Les dirigeants de Meta ont déclaré qu’ils souhaitaient commencer à utiliser leurs propres puces d’ici 2026 pour l’entraînement, c’est-à-dire le processus à forte intensité de calcul qui consiste à fournir au système d’IA des quantités de données pour lui “apprendre” à fonctionner.
Comme pour la puce d’inférence, l’objectif de la puce d’entraînement est de commencer avec des systèmes de recommandation et de l’utiliser plus tard pour des produits d’IA générative comme le chatbot Meta AI, ont déclaré les dirigeants.
“Nous travaillons sur la manière dont nous pourrions former les systèmes de recommandation, puis éventuellement sur la manière dont nous pourrions penser à la formation et à l’inférence pour l’IA générative”, a déclaré Chris Cox, directeur général des produits de Meta, lors de la conférence Morgan Stanley sur les technologies, les médias et les télécommunications la semaine dernière.
M. Cox a décrit les efforts de développement de la puce de Meta comme “une sorte de marche, de rampe, de course” jusqu’à présent, mais il a déclaré que les cadres considéraient la puce d’inférence de première génération pour les recommandations comme un “grand succès”.
Meta a déjà mis un terme au développement d’une puce d’inférence personnalisée en interne après un échec lors d’un test de déploiement à petite échelle similaire à celui qu’elle effectue actuellement pour la puce d’entraînement, faisant marche arrière et passant des commandes de GPU Nvidia d’une valeur de plusieurs milliards de dollars pour l’année 2022.
L’entreprise de médias sociaux est restée l’un des plus gros clients de Nvidia depuis lors, accumulant un arsenal de GPU pour entraîner ses modèles, y compris pour les systèmes de recommandations et de publicités et sa série de modèles de fondation Llama. Les unités effectuent également des inférences pour les plus de 3 milliards de personnes qui utilisent ses applications chaque jour.
La valeur de ces GPU a été remise en question cette année, car les chercheurs en IA expriment de plus en plus de doutes sur les progrès qui peuvent être réalisés en continuant à “augmenter” les grands modèles de langage en ajoutant toujours plus de données et de puissance de calcul.
Ces doutes ont été renforcés par le lancement, fin janvier, de nouveaux modèles à bas prix de la startup chinoise DeepSeek, qui optimisent l’efficacité des calculs en s’appuyant davantage sur l’inférence que la plupart des modèles existants.
À la suite d’une déroute mondiale des actions liées à l’IA provoquée par DeepSeek, les actions de Nvidia ont perdu jusqu’à un cinquième de leur valeur à un moment donné. Elles ont ensuite regagné la majeure partie de ce terrain, les investisseurs pariant que les puces de l’entreprise resteront la norme de l’industrie pour la formation et l’inférence, bien qu’elles aient de nouveau baissé en raison de préoccupations commerciales plus larges. (Reportage de Katie Paul à New York et de Krystal Hu à San Francisco ; Rédaction de Richard Chang)