Analoger KI-Chip aus China – 12-mal schneller und mit nur 0,5 Prozent Energieverbrauch

Ein Forscherteam der Universität Peking berichtet über einen analogen KI-Chip mit ungewöhnlichen Leistungswerten. Laut Veröffentlichung in Nature Communications, über die auch die South China Morning Post berichtet, soll der Chip bei ausgewählten Aufgaben zwölfmal schneller rechnen als fortgeschrittene digitale Prozessoren. Gleichzeitig habe er dabei nur 0,5 Prozent der Energie dieser digitalen Vergleichssysteme verbraucht. Die Tests liefen unter anderem beim Training von Empfehlungssystemen mit Datensätzen, deren Umfang die Autoren mit Netflix und Yahoo vergleichen (scmp: 23.01.26).


Ergebnisse aus Training und Bildkompression

Bei Empfehlungssystemen soll der Chip seine Vorteile besonders klar gezeigt haben, weil dort große Matrizenoperationen dominieren. Außerdem prüfte das Team eine Bildkompressionsaufgabe und dabei rekonstruierte das System Bilder mit nahezu derselben visuellen Qualität wie digitale Vollpräzisions-Berechnungen. Zugleich halbierte sich laut den Forschern der Speicherbedarf, weshalb das Ergebnis nicht nur auf Leistungswerte zielt, sondern auch auf Ressourceneffizienz. Damit adressiert das Projekt zwei Engpässe zugleich, nämlich Energie und Speicher.

Analoger KI-Chip aus China zeigt großen Technologiesprung: 12-mal höhere Geschwindigkeit bei nur 0,5 Prozent Energieverbrauch
Analoger KI-Chip aus China zeigt großen Technologiesprung: 12-mal höhere Geschwindigkeit bei nur 0,5 Prozent Energieverbrauch

Ein Mitglied des Teams setzte in sozialen Medien einen Akzent auf die Einordnung der Entwicklung. „Die Studie erweitert die Grenzen des analogen Rechnens um einen weiteren Schritt“, erklärte Sun Zhong. Der neue Chip habe komplexere Aufgaben bewältigt und dabei die Geschwindigkeits- und Energievorteile analoger Technik beibehalten. Diese Aussage betont den Anspruch, dass es nicht nur um eine Demo, sondern um skalierbare KI-Workloads geht.

Warum Analogtechnik anders rechnet als Digitalchips

Digitale Prozessoren arbeiten mit binären Zuständen, während analoge Ansätze kontinuierliche elektrische Größen nutzen. Dadurch lassen sich bestimmte Berechnungen, vor allem Matrixmultiplikationen, direkt in der Physik des Bauteils abbilden, und das kann viele Rechenschritte einsparen. Der Chip basiert auf RRAM, also Resistive Random-Access Memory, bei dem Informationen als Leitfähigkeitswerte in Speicherzellen liegen. So kann die Hardware große Operationen in einem Schritt ausführen, statt sie in zahlreiche digitale Einzeloperationen zu zerlegen.

Das Team hatte bereits im Oktober 2025 in Nature Electronics eine Methode für präzise und skalierbare analoge Matrixberechnung beschrieben. Damals stand ein klassisches Problem analoger Rechner im Mittelpunkt, nämlich Genauigkeit bei wachsender Größe. Jetzt rückt die Frage in den Vordergrund, ob die neue Architektur diese Hürde auch in praxisnahen KI-Szenarien überwindet. Denn nur dann tragen die Leistungswerte über einzelne Benchmarks hinaus.

Kritikpunkte und nächste Hürden für den Praxiseinsatz

In Fachforen wie Hacker News reagieren Kommentatoren skeptisch, weil analoge Systeme historisch schwer zu industrialisieren waren. Sie nennen Signalrauschen, Streuungen zwischen Bauteilen und den Aufwand der Analog-Digital-Wandlung, der Teile des Effizienzgewinns auffressen kann. Ein Nutzer schreibt: „Es ist mir nicht klar, wie sie das getestet haben. Der Code ist nur auf Anfrage verfügbar“. Ein anderer ergänzt: „Variabilität von Bauteil zu Bauteil ist ein riesiges Problem beim analogen Rechnen.“

Auch jenseits der Debatte bleiben klare Engineering-Fragen offen, obwohl die Resultate Aufmerksamkeit erzeugen. Dazu zählen Langzeitstabilität, Fertigung im großen Maßstab und verlässliche Programmiermodelle, weil Entwickler heute fast überall auf digitale Toolchains setzen. Außerdem entscheidet die Einbindung in bestehende Software-Ökosysteme über die Geschwindigkeit der Adoption, und das gilt besonders bei KI-Workloads. Erst reproduzierbare Vergleiche durch unabhängige Gruppen schaffen hier Vertrauen.


Wo ein Effizienzsprung besonders schnell zählen würde

Bestätigen sich die Messwerte, dann eignet sich die Technik vor allem für Szenarien mit strikten Energie- und Latenzgrenzen. Edge-Geräte profitieren, weil sie KI lokal ausführen sollen und deshalb sparsame Hardware benötigen. Ebenso interessant wirkt die Signalverarbeitung für kommende Mobilfunkstandards wie 6G, weil dort schnelle Matrizenoperationen und niedriger Verbrauch direkt in Reichweite und Kapazität einzahlen. Wahrscheinlich startet der Weg in den Markt daher über spezialisierte Beschleuniger, bevor allgemeine Prozessoren ersetzt werden.

Lesen Sie auch:

Nach oben scrollen