Meta beginnt mit dem Testen des ersten internen KI-Trainingschips


Dateifoto: Meta testet seinen ersten hauseigenen Chip für Trainings-KI-Systeme, ein wichtiger Meilenstein, da es sich um mehr von einem eigenen kundenspezifischen Silizium entwirft.

Dateifoto: Meta testet seinen ersten hauseigenen Chip für Trainings-KI-Systeme, ein wichtiger Meilenstein, da es sich um mehr von einem eigenen kundenspezifischen Silizium entwirft. | Fotokredit: Reuters

Der Facebook-Besitzer Meta testet seinen ersten internen Chip für die Schulung künstlicher Intelligenzsysteme, ein wichtiger Meilenstein, da er mehr von seinem eigenen kundenspezifischen Silizium entworfen und die Abhängigkeit von externen Lieferanten wie Nvidia verringert, teilten zwei Quellen gegenüber Reuter.

Das weltweit größte Social-Media-Unternehmen hat einen kleinen Einsatz des Chips begonnen und plant, die Produktion für einen weit verbreiteten Gebrauch zu steigern, wenn der Test gut läuft, sagten die Quellen.

Der Vorstoß zur Entwicklung von internen Chips ist Teil eines langfristigen Plans bei Meta, um seine Mammoth-Infrastrukturkosten zu senken, da das Unternehmen teure Wetten auf KI-Tools zur Förderung des Wachstums legt.

Meta, dem auch Instagram und WhatsApp gehört, hat die Gesamtausgaben von 2025 USD von 114 Mrd. USD bis 119 Milliarden US -Dollar prognostiziert, einschließlich der Kapitalausgaben in Höhe von bis zu 65 Milliarden US -Dollar, die größtenteils von Ausgaben für die KI -Infrastruktur zurückzuführen sind.

Eine der Quellen zufolge handelt es sich um einen neuen Trainingschip von Meta, der ein spezielles Beschleuniger ist, was bedeutet, dass er nur für KI-spezifische Aufgaben erledigt ist. Dies kann es effizienter machen als die integrierten Grafikverarbeitungseinheiten (GPUs), die im Allgemeinen für KI-Workloads verwendet werden.

Meta arbeitet mit dem in Taiwan ansässigen Chiphersteller TSMC zusammen, um den Chip zu produzieren, sagte diese Person.

Die Testbereitstellung begann, nachdem Meta seinen ersten “Bandout” des Chips beendet hatte, ein bedeutender Erfolgsmarker für die Entwicklung von Siliziumentwicklungen, bei dem ein erstes Design über eine Chip-Fabrik gesendet wird, so die andere Quelle.

Eine typische Klebemandel kostet zig Millionen Dollar und dauert ungefähr drei bis sechs Monate, ohne Garantie zu erhalten, dass der Test erfolgreich ist. Für einen Fehler würde Meta erforderlich sein, um das Problem zu diagnostizieren und den Klebebandschritt zu wiederholen.

Meta und TSMC lehnten eine Stellungnahme ab.

Der Chip ist der neueste in der MTIA -Serie Meta Training and Inference Accelerator (META Training and Inferenz Accelerator). Das Programm hat seit Jahren einen wackeligen Start und verschrottete irgendwann einen Chip in einer ähnlichen Entwicklungsphase.

Meta begann jedoch im vergangenen Jahr mit einem MTIA -Chip zur Durchführung von Inferenz oder dem Prozess, der mit der Ausführung eines KI -Systems als Benutzer mit ihm interagiert, für die Empfehlungssysteme, die feststellen, welche Inhalte auf Facebook- und Instagram -News -Feeds angezeigt werden.

Die Führungskräfte von Meta haben erklärt, sie möchten bis 2026 ihre eigenen Chips für das Training oder den rechenintensiven Prozess der Fütterung der Reibüste von Daten von KI-Systemen von Daten zum “Lehren” der Durchführung anfangen.

Wie beim Inferenzchip ist das Ziel für den Trainingschip, mit Empfehlungssystemen zu beginnen und später für generative KI -Produkte wie Chatbot Meta AI zu verwenden, so die Führungskräfte.

“Wir arbeiten daran, wie wir Schulungen für Empfehlungssysteme absolvieren würden und wie wir schließlich über Schulungen und Schlussfolgerungen für Gen AI nachdenken”, sagte Chris Cox, Chief Product Officer von Meta, auf der Konferenz Morgan Stanley Technology, Media und Telecom in der vergangenen Woche.

Cox beschrieb die Bemühungen zwischen den Chip-Entwicklungen von Meta als “bisher eine Art Spaziergang, Kriechen, Run-Situation”, sagte jedoch, dass die Führungskräfte den Inferenzchip der ersten Generation für Empfehlungen als “großer Erfolg” betrachteten.

Meta zog zuvor den Stecker in einem internen kundenspezifischen Inferenzchip auf, nachdem er in einer kleinen Testbereitstellung in ähnlicher Weise wie für den Trainingschip gefloppt war, stattdessen den Kurs umzukehren und Bestellungen für Milliarden von Dollar im Wert von NVIDIA GPUs im Jahr 2022 aufzugeben.

Das Social -Media -Unternehmen ist seitdem einer der größten Kunden von NVIDIA und sammelte ein Arsenal von GPUs, um seine Modelle zu schulen, einschließlich Empfehlungen und ADS -Systemen und der Llama Foundation Model Series. Die Einheiten führen auch einen Schluss für die mehr als 3 Milliarden Menschen, die ihre Apps pro Tag nutzen.

Der Wert dieser GPUs wurde in diesem Jahr in Frage gestellt, da KI -Forscher zunehmend Zweifel daran ausdrücken, wie viel Fortschritt mehr Fortschritte erzielt werden können, indem große Sprachmodelle durch Hinzufügen von immer mehr Daten und Rechenleistung hinzufügen.

Diese Zweifel wurden durch die Start neuer kostengünstiger Modelle aus chinesischem Startup Deepseek verstärkt, die die Recheneffizienz optimieren, indem sie stärker auf Inferenz stützt als die meisten amtierenden Modelle.

In einem Deepseek-induzierten globalen Rout in AI-Aktien verlor Nvidia-Aktien an einem Punkt einen Fünftel ihres Wertes. Anschließend haben sie den größten Teil dieses Bodens wiedererlangt, wobei die Investoren mit den Chips des Unternehmens die Branchenstandard für Schulungen und Inferenz bleiben, obwohl sie erneut auf breitere Handelsbedenken gesunken sind.



Source link