Durch Neuromorphe Chips fühlen sich Transistoren überflüssig an
Neuromorphe Computer-Robotik
Intels neue Plattform für neuromorphes Computing, der neuromorphe Loihi- Prozessor, spiegelt einen breiteren Trend in der KI-Hardware-Community wider. Der Loihi-Prozessor enthält wichtige Änderungen an der zugrundeliegenden Transistorarchitektur und verwendet eine einzigartige Signalisierungsmethode. Intels Produkte und andere Chips von Hardware-Startups ähneln zunehmend der Funktionalität im menschlichen Gehirn.
Diese Produkte zeigen, dass es in der Community für eingebettete KI einen neuen Trend gibt: die KI-Fähigkeiten sollen auf die Geräteebene und weg vom Rechenzentrum gebracht werden. Aber was genau ist bei der KI auf dem Chip anders, und welche neuen KI-Abenteuer können Designer erwarten, wenn diese Produkte erst einmal auf den Markt kommen? Vorerst können wir uns einige der Aussagen von Intel ansehen, die beschreiben, wie diese Systeme unter dem Druck der immer anspruchsvolleren KI-Arbeitslasten funktionieren werden.
Ein Blick unter die Haube
Das Bild unten zeigt den Loihi-Chip von Intel, der ~1000fache Geschwindigkeitssteigerungen für rechenintensive Aufgaben wie Bilderkennung/Segmentierung und NLP verspricht. Andere Firmen arbeiten an ihren eigenen neuromorphen Produkten, und ich hatte das Glück, einige Forschungsarbeiten auf diesem Gebiet durchzusehen. Es ist definitiv eine aufregende Zeit, um an neuromorphem Computing zu arbeiten. Die vielleicht wichtigste Erkenntnis aus dem Loihi-Chip ist, dass er einen aktuellen Trend von Forschern und Startups widerspiegelt, Transistorarchitekturen neu zu entwerfen, um die KI-Arbeitslast auf dem Gerät grundlegend zu unterstützen.
Intel hat den gleichen Weg eingeschlagen wie einige andere Firmen, die ich kenne, bei denen KI-Workloads auf mehrere Kerne verteilt werden, um die MAC-Operationen (Multiply-Accumulate) direkt auf einem Chip massiv zu beschleunigen. Es ist nicht klar, ob Intel den Ansatz gewählt hat, mehrere Neuronen-Gewichtswerte in einem KI-Kern zu kodieren, aber dies ist der Ansatz, der von anderen verfolgt wird, die an KI-optimierten SoCs arbeiten. Transistoren werden nämlich so konstruiert, dass sie eine Reihe von diskreten Ebenen für die Kodierung von Neuronengewichten in neuronalen Netzwerken bieten, anstatt eine binäre Zahl (d.h. zwei Gewichtswerte) zu speichern. Wenn Sie mit digitaler Logik vertraut sind, können Sie bereits sehen, wie durch dieses Umdenken von Transistoren als Mixed-Signal-Geräte die Anzahl der Transistoren in diesen Produkten erheblich reduziert werden kann.
Intels Loihi-Chip für neuromorphes Computing. Bildquelle: Intel.
Dieser gesamte Bereich ist so neu, dass man zu Recht darüber streiten kann, welche Metriken für den Vergleich von KI-Hardware-Plattformen am besten geeignet sind. Alle, die ich in diesem Bereich kenne, sei es in der Wissenschaft oder in der Industrie, benutzen MAC-Operationen pro Sekunde, um die KI-Rechenleistung zu quantifizieren. Damit wird gemessen, wie schnell ein Prozessor iterative Matrixberechnungen durchführen kann, die in maschinellen Lernalgorithmen verwendet werden.
Die Softwareseite von all dem ist unglaublich interessant, besonders wenn wir darüber nachdenken, wie wir uns von den derzeitigen regelbasierten KI-Systemen entfernen können. Neuromorphes Computing zielt darauf ab, den Computer die Regeln lernen zu lassen, nach denen Entscheidungen getroffen werden, und die derzeitige IF-THEN-ELSE-Architektur der KI-Systeme abzuschaffen. Ein Nebenziel besteht darin, diese Fähigkeiten auf die Ebene der Endgeräte und aus dem Rechenzentrum heraus zu bringen.
Raus aus dem Rechenzentrum
Die heutigen stark belastenden KI-Systeme laufen nicht auf Endgeräten. Möglicherweise verfügen Sie über Telefone und Laptops, auf denen einige einfachere, unbeaufsichtigte Lernalgorithmen auf Geräteebene laufen können (nehmen Sie Apple als Beispiel). Dennoch lassen sich viele der geplanten Apps für künstliche Intelligenz einfach nicht auf einem kleinen Chip auf Client-Geräten ausführen. Diese Apps sollen eine sinnvolle Benutzererfahrung bieten, aber ich bezweifle, dass irgendjemand Ihr Smartphone innerhalb der geplanten Anwendungen für KI wirklich als "smart" bezeichnen kann.
Wenn Sie KI auf der Hardware-Ebene machen möchten (d.h. auf einem Chip statt in einem Rechenzentrum), gibt es derzeit zwei Möglichkeiten:
- Die große, langsame, heiße Option: Verwenden Sie mehrere CPUs/GPUs parallel mit großen Kühlkörpern und Lüftern. Diese Platinen können ziemlich groß werden, was für die Robotik oder die Automobilindustrie in Ordnung sein mag, aber nicht für so etwas wie Wearables oder Mobiltelefone. Selbst am 5-nm-Transistorknoten stoßen Sie immer noch auf eine Hitzewand, die verhindert, dass das Gerät auf schwerere KI-Arbeitslasten skaliert. Aus diesem Grund werden stark belastende Aufgaben (z.B. die NLP-Engine in Amazon Alexa) in einem Rechenzentrum ausgeführt und nicht auf dem Gerät.
- Die kleine, schnelle, schwierige Option: Gestalten Sie die Transistorarchitektur so um, dass einige wenige Transistoren als Neuron fungieren können, anstatt große Bänke mit Transistorlogik zu verwenden, um ein Neuron zu simulieren. Diese neu entworfenen Transistoren sind wie Mixed-Signal-Geräte, die Gewichtswerte für Neuronen als Wertbereiche kodieren, anstatt Gewichtswerte als Bits in großen Logikschaltungen zu speichern.
Die zweite Möglichkeit ist der Weg, den Forscher im akademischen Bereich, Unternehmen wie Intel und eine Reihe von Start-ups einschlagen. Die derzeit angekündigten Komponenten und Systeme sind bei weitem nicht auf dem Niveau der menschlichen Intelligenz; man bräuchte ~1000 von Intels Nahaku-Boards (jedes mit 32 Loihi-Chips, siehe unten), um die gleiche Anzahl an Neuronen wie ein menschliches Kleinkind bereitzustellen. Trotzdem zahlt es sich aus, Transistoren zu Mixed-Signal-Geräten umzugestalten.
Intel Nahaku Board für neuromorphes Computing Bildquelle: Intel.
Obwohl der Loihi-Chip und andere Produkte auf der Geräteebene keine Intelligenz auf menschlicher Ebene erzeugen, ist es ein großer Schritt, um mehr KI-Rechenleistung auf die Geräteebene zu bringen. Es ist auch ein großer Schritt vorwärts in Bezug auf die Energieeffizienz und Skalierbarkeit. Die Chips und ihre Kerne sind auf Parallelisierung ausgelegt, was eine einfache Möglichkeit bietet, die Rechenleistung so zu skalieren, dass sie der aktuellen Strategie in großen Servern entspricht. Wir können uns vorstellen, dass neue Systeme auf einem Board mit einer Master-MCU oder einem FPGA entworfen werden, die dann den KI-Block und andere Sensoren steuert, die für das Funktionieren des Systems erforderlich sind.
Was passiert auf der Platine?
Die Designer müssen ein Muster in die Hände bekommen, um alle Spezifikationen und Schnittstellen dieser Chips zu sehen. Höchstwahrscheinlich werden Sie mit Standard-Niedergeschwindigkeits- und Hochgeschwindigkeits-Schnittstellen arbeiten, um den Chip mit einem Controller und Speichern zu verbinden, so dass Sie weiterhin mit den gleichen Signalstandards arbeiten werden, die Sie gewohnt sind. Der Unterschied besteht darin, dass für Apps mit Computer Vision, NLP oder Sensorfusion mehrere Sensoren auf der Platine integriert werden müssen, um eine Schnittstelle mit der realen Welt herzustellen.
Erwarten Sie in naher Zukunft eine stärkere Kommerzialisierung und Integration dieser Komponenten in Datenzentren für schnelle, hocheffiziente Trainings und Inferenz in KI-Applikationen. Ich denke, es wird immer noch eine gewisse Abhängigkeit vom Rechenzentrum geben, bis ein anderer großer Durchbruch es ermöglicht, mehr KI-Rechenleistung auf der Geräteebene zu platzieren.
Sie müssen PCBs für neuromorphes Computing entwerfen und layouten? Die Design Tools in Altium Designer® enthalten alles, was Sie brauchen, um mit neuen Technologien Schritt zu halten. Designer und Layout-Ingenieure haben Zugriff auf ein komplettes Set von Tools für das Design von PCBs für jede Anwendung. Sie können jetzt eine kostenlose Testversion von Altium Designer herunterladen und mehr über die besten Layout-, Simulations- und Produktionsplanungstools der Branche erfahren. Sprechen Sie noch heute mit einem Altium-Experten, um mehr zu erfahren.