- Neue Dual-Core-Mega.mini-Architektur steigert die Leistung und spart gleichzeitig Energie
- Dynamische Kernzuweisung optimiert die Workloads
- Mega -Kerne für komplexe Aufgaben und Mini -Kerne für die Routineverarbeitung
Im Februar 2025’s International Solid-State Circuits Conference (ISSCC) stellten Forscher eine neue Mega.mini-Architektur vor.
Inspiriert von Arm’s berühmtes “Big.little” -Paradigma, dieser universelle generative KI -Prozessor, der ausführlich in’ diskutiert wird ‘Mega.mini: ein universeller generativer KI -Prozessor mit einer neuen großen/kleinen Kernarchitektur für NPU ‘, Ein auf der Konferenz vorgestelltes akademisches Papier versprach einen revolutionären Ansatz für die NPU -Design (Neural Processing Unit).
Arm’s Big.Little Architecture ist seit langem ein fester Bestandteil effizienter mobiler und eingebetteter Systeme, die leistungsstarke Kerne mit energieeffizienten Ausgleichen zur Optimierung der Stromverbrauch ausbalancieren. Das Mega.mini-Projekt versucht NPUs, eine ähnliche Doppelkernphilosophie zu bringen, die für die effiziente Ausführung von KI-Modellen unerlässlich ist.
Mega.mini: ein bahnbrechendes NPU-Design
Dieser Ansatz wird wahrscheinlich die Kombination von “Mega” -Kerne mit hoher Kapazität für anspruchsvolle Aufgaben mit leichten “Mini” -Kernen für die Routineverarbeitung beinhalten. Das Hauptziel dieses Designs ist es, den Stromverbrauch zu optimieren und gleichzeitig die Verarbeitungsfähigkeiten für verschiedene generative Aufgaben für künstliche Intelligenz (KI) zu maximieren, die von der natürlichen Sprache bis zu komplexem Denken reichen.
Generativ KI -Werkzeug Workloads sind wie jene, die Großsprachenmodelle oder Bildsynthesesysteme betreiben, notorisch ressourcenintensiv. Die Architektur von Mega.minis zielt darauf ab, komplexe Aufgaben an Mega -Kerne zu delegieren und gleichzeitig einfachere Vorgänge in Mini -Kerne, Ausgleichsgeschwindigkeit und Stromeffizienz abzuleiten.
Mega.mini fungiert auch als Universalprozessor für generative KI. Im Gegensatz zu traditioneller schnellster CPUs Das erfordern die Anpassung an bestimmte KI -Aufgaben, Mega.mini wird so entwickelt, dass Entwickler die Architektur für verschiedene Anwendungsfälle nutzen können, einschließlich der Verarbeitung natürlicher Sprache (NLP) und multimodaler KI -Systeme, die Text, Bild und Audioverarbeitung integrieren.
Es optimiert auch die Workloads, unabhängig davon, ob massive Cloud-basierte KI-Modelle oder kompakte KI-Anwendungen ausgeführt werden, die durch die Unterstützung mehrerer Datentypen und -formate unterstützt werden, von herkömmlichen Gleitkommaoperationen bis hin zu aufstrebenden Sparsity-bewussten Berechnungen.
Dieser universelle Ansatz könnte die KI-Entwicklungspipelines vereinfachen und die Einsatzeffizienz über Plattformen hinweg verbessern, von mobilen Geräten bis hin zu Hochleistungen Rechenzentren.
Die Einführung einer Dual-Core-Architektur in NPUs ist eine erhebliche Abweichung von herkömmlichen Entwürfen-traditionelle NPUs beruhen häufig auf eine monolithische Struktur, was bei der Verarbeitung unterschiedlicher KI-Aufgaben zu Ineffizienzen führen kann.
Das Design von Mega.Mini befasst sich mit dieser Einschränkung, indem sie Kerne erstellen, die für bestimmte Arten von Operationen spezialisiert sind. Mega-Kerne sind für Hochleistungsaufgaben wie Matrix-Multiplikationen und groß angelegte Berechnungen entwickelt, die für das Training und das Laufen hoch entwickelter großer Sprachmodelle unerlässlich sindLlms) während Mini-Kerne für Vorgänge mit geringer Leistung wie Daten vorverarbeitung und Inferenzaufgaben optimiert werden.
Sie könnten auch mögen
Source link