Meta beginnt mit dem Test seines ersten eigenen KI-Trainingschips

Am 11. März 2025

Der Facebook-Eigentümer Meta testet seinen ersten hauseigenen Chip für das Training von Systemen der künstlichen Intelligenz. Dies ist ein wichtiger Meilenstein auf dem Weg, mehr eigenes Silizium zu entwickeln und die Abhängigkeit von externen Anbietern wie Nvidia zu verringern, so zwei Quellen gegenüber Reuters.

Das weltgrößte Social-Media-Unternehmen hat mit einem kleinen Einsatz des Chips begonnen und plant, die Produktion für einen groß angelegten Einsatz hochzufahren, wenn der Test gut verläuft, so die Quellen.

Der Vorstoß, eigene Chips zu entwickeln, ist Teil eines langfristigen Plans bei Meta, um die enormen Infrastrukturkosten zu senken, da das Unternehmen auf teure KI-Tools setzt, um das Wachstum voranzutreiben.

Meta, zu dem auch Instagram und WhatsApp gehören, hat für das Jahr 2025 Gesamtausgaben in Höhe von 114 bis 119 Milliarden Dollar prognostiziert, darunter bis zu 65 Milliarden Dollar an Kapitalausgaben, die größtenteils durch Ausgaben für die KI-Infrastruktur getrieben werden.

Eine der Quellen sagte, dass der neue Trainingschip von Meta ein dedizierter Beschleuniger ist, d.h. er ist nur für KI-spezifische Aufgaben ausgelegt. Dadurch kann er energieeffizienter sein als die integrierten Grafikprozessoren (GPUs), die im Allgemeinen für KI-Arbeitslasten verwendet werden.

Meta arbeitet mit dem taiwanesischen Chip-Hersteller TSMC zusammen, um den Chip zu produzieren, sagte diese Person.

Der Testeinsatz begann, nachdem Meta sein erstes “Tape-Out” des Chips abgeschlossen hatte. Dies ist ein wichtiger Gradmesser für den Erfolg bei der Siliziumentwicklung, bei der ein erstes Design durch eine Chipfabrik geschickt wird, so die andere Quelle.

Ein typisches Tape-Out kostet mehrere zehn Millionen Dollar und dauert etwa drei bis sechs Monate, wobei es keine Garantie für den Erfolg des Tests gibt. Bei einem Fehlschlag müsste Meta das Problem diagnostizieren und den Tape-Out-Schritt wiederholen.

Meta und TSMC lehnten eine Stellungnahme ab.

Der Chip ist der jüngste in der Meta Training and Inference Accelerator (MTIA) Serie des Unternehmens. Das Programm hat seit Jahren einen wackeligen Start und hat schon einmal einen Chip in einer ähnlichen Entwicklungsphase verschrottet.

Letztes Jahr hat Meta jedoch damit begonnen, einen MTIA-Chip für die Inferenz zu verwenden, d.h. für den Prozess, bei dem ein KI-System läuft, während die Benutzer mit ihm interagieren, und zwar für die Empfehlungssysteme, die bestimmen, welche Inhalte in den Newsfeeds von Facebook und Instagram angezeigt werden.

Die Führungskräfte von Meta haben erklärt, dass sie ab 2026 ihre eigenen Chips für das Training einsetzen wollen. Dabei handelt es sich um den rechenintensiven Prozess, bei dem das KI-System mit Unmengen von Daten gefüttert wird, um ihm zu “lehren”, wie es arbeiten soll.

Wie beim Inferenz-Chip ist es auch beim Trainingschip das Ziel, mit Empfehlungssystemen zu beginnen und ihn später für generative KI-Produkte wie den Chatbot Meta AI zu verwenden, sagten die Führungskräfte.

“Wir arbeiten daran, wie wir das Training für Empfehlungssysteme durchführen können und wie wir später über Training und Inferenz für generative KI nachdenken können”, sagte Chris Cox, Chief Product Officer von Meta AI, letzte Woche auf der Morgan Stanley Konferenz für Technologie, Medien und Telekommunikation.

Cox beschrieb Metas Chip-Entwicklungsbemühungen bisher als “eine Art Spaziergang, Kriechen, Laufen”, sagte aber, dass die Führungskräfte den Inferenz-Chip der ersten Generation für Empfehlungen als “großen Erfolg” betrachten.

Meta hatte zuvor die Entwicklung eines eigenen Inferenzchips eingestellt, nachdem dieser in einem kleinen Test, ähnlich dem, den es jetzt für den Trainingschip durchführt, gefloppt war. Stattdessen änderte das Unternehmen seinen Kurs und bestellte bis 2022 Nvidia-GPUs im Wert von mehreren Milliarden Dollar.

Das Social-Media-Unternehmen ist seither einer der größten Kunden von Nvidia geblieben und hat ein ganzes Arsenal von Grafikprozessoren zum Trainieren seiner Modelle, u.a. für Empfehlungs- und Anzeigensysteme und seine Llama-Foundation-Modellreihe, angehäuft. Die Einheiten führen auch Inferenzen für die mehr als 3 Milliarden Menschen durch, die seine Apps jeden Tag nutzen.

Der Wert dieser GPUs wurde in diesem Jahr in Frage gestellt, da KI-Forscher zunehmend Zweifel daran äußern, wie viel mehr Fortschritte erzielt werden können, wenn man weiterhin große Sprachmodelle durch immer mehr Daten und Rechenleistung “hochskaliert”.

Diese Zweifel wurden Ende Januar durch die Einführung neuer kostengünstiger Modelle des chinesischen Startups DeepSeek verstärkt, die die Recheneffizienz optimieren, indem sie sich stärker auf Inferenzen stützen als die meisten etablierten Modelle.

Im Zuge der von DeepSeek ausgelösten weltweiten Talfahrt der KI-Aktien verlor die Nvidia-Aktie zeitweise bis zu einem Fünftel ihres Wertes. In der Folge erholten sie sich größtenteils wieder, da die Anleger darauf setzten, dass die Chips des Unternehmens der Industriestandard für das Training und die Inferenz bleiben werden, auch wenn sie aufgrund allgemeiner Handelsbedenken wieder gefallen sind. (Berichte von Katie Paul in New York und Krystal Hu in San Francisco; Redaktion: Richard Chang)

Quelle:Meta beginnt mit dem Test seines ersten eigenen KI-Trainingschips -Am 11. März 2025 um 11:06 Uhr | MarketScreener