KI-Chips: Künstliche Intelligenz „at the Edge“

| |
1 Star2 Stars3 Stars4 Stars5 Stars

Dedizierte KI-Chips bringen maschinelles Lernen von der Cloud direkt auf das Endgerät. Auch Quereinsteiger wie Automobilhersteller und Online-Versandhändler entwickeln Chips für Deep Learning.

Ob Industrie 4.0, Internet of Things (IoT) oder autonomes Fahren:  Künstliche Intelligenz (KI) steckt in fast jeder Zukunftstechnologie. Ziel ist es, die Funktionsweisen des menschlichen Gehirns in Form künstlicher neuronaler Netze nachzubilden. Standard-CPUs sind dafür ungeeignet. Neuronale Netze unter- und überfordern diese Allzweckprozessoren gleichermaßen:

Sie rufen nur wenige der zahlreichen CPU-Funktionen ab – diese jedoch in sehr schneller Folge, wofür sie enorme Rechenkapazitäten benötigen. Besser eignen sich Grafikprozessoren (GPUs), die bestimmte Rechenoperationen sehr schnell ausführen. GPU-Hersteller Nvidia wurde so zum führenden Hardware-Lieferanten für KI-Lösungen. Doch auch die Prozessor-Architekturen von GPUs sind nicht speziell auf Deep Learning ausgelegt

Spezial-Chips für Deep Learning

Zahlreiche Hersteller entwickeln deshalb dedizierte Chips für künstliche Intelligenz. Mit Hilfe dieser spezialisierten Chips – sie beherrschen nur die notwendigen Funktionen, sind hier aber sehr leistungsfähig – sollen sich Systeme durch Deep Learning Fähigkeiten aneignen, auf die der Mensch sie nicht oder nicht mit vertretbarem Aufwand programmieren könnte. Dazu werden sie mit riesigen Datenmengen in Form von Bildern, Texten oder Sprache trainiert. Sie erhalten Rückmeldung über ihre Erkennungsleistung und können so im Lauf der Zeit immer besser herausfiltern, was für die Lösung einer Aufgabe wichtig ist.

Die erste Generation von KI-Prozessoren, zu denen Googles erste Tensor Processing Unit (TPU) und Nvidias Kepler-GPUs zählen, verfügten über parallel arbeitende Rechenwerke, wobei die theoretisch mögliche Maximalleistung praktisch kaum erreicht wurde. Der Flaschenhals war die Speicheranbindung. Die zweite Chipgeneration – zum Beispiel Googles TPU v2, Nvidias Volta-GPUs und Microsofts Brainwave-Chip – hatte große und schnelle Speicherchips. Die dritte Generation bilden Prozessoren mit langem Kurzzeitgedächtnis (Long Short-Term Memory, LSTM) samt Vergessens-Komponente. Neuronale Netze lassen sich nämlich auf bis zu ein Zehntel ihrer Originalgröße komprimieren, ohne dass die Fehlerrate ansteigt. Dieses Prinzip des Ausdünnens von Knoten und Verbindungen orientiert sich an der Natur:

Während das menschliche Gehirn bei der Geburt nur etwa 50 Billionen Synapsen hat, steigt die Anzahl im ersten Lebensjahr auf 1.000 Billionen an. Beim Erwachsenen sinkt sie auf 500 Billionen, ohne dass der Mensch dümmer wird. In der zukünftigen Generation von KI-Beschleunigern soll KI bessere KI erschaffen: Hardware wird gezielt für bestimmte neuronale Netze entwickelt. Labortests laufen etwa mit dem Squeezelerator für SqueezeNext, dem DeePhis DPU v2 für Depth-wise Convolution und dem ShiftNet Accelerator für ShiftNet.

Neuromorphic Computing

Intel entwickelt den KI-Prozessor Nervana Network Processors (NNP). Bis 2020 sollen damit KI-Berechnungen bis zu 100-mal schneller zu bewerkstelligen sein als heute. Bei seinem Chip Loihi setzt Intel auf  Neuromorphic Computing. Mit seinem Netz aus künstlichen Neuronen und Synapsen soll er ohne Training selbst lernen. Der Chip kombiniert Training und Inferencing. IBM verabschiedet sich bei TrueNorth komplett von herkömmlicher Computer-Architektur: Der Chip ahmt ein neuronales Netz in Hardwareform nach.

GPU-Hersteller Nvidia hat autonome Roboter im Visier und entwickelt dafür das KI-System-on-a-Chip (SoC) Jetson Xavier mit Volta Tensor Core-GPU, Acht-Kerne-ARM64-CPU, zwei Nvidia Deep Learning Accelerators (NVDLA) sowie Prozessoren für Bilder und Videos. Jetson Xavier hat neun Milliarden Transistoren und liefert 30 Billionen Operationen pro Sekunde – bei gerade einmal 30 Watt. Prozessor-IP-Entwickler ARM integriert die Deep Learning Architektur NVDLA in seine KI-Prozessoren der Trillian-Plattform. Sie sollen maschinelles Lernen für mobile, Embedded- und IoT-Anwendungen unterstützen.

Das MIT hat die Rechenschaltkreise mit dem Speicher kombiniert. Sein neuer KI-Prozessor soll damit bis zu 95 Prozent weniger Energie verbrauchen und sieben Mal schneller rechnen können als bisherige KI-Chips.

Cognitive Edge Computing: KI-Verlagerung von der Cloud ins Gerät

Um zu lernen, sind neuronale Netze auf riesige Datenmengen angewiesen. KI-gestützte Anwendungen erfordern zudem eine hohe Rechenleistung. Die erforderlichen Rechenoperationen finden deshalb bislang hauptsächlich in Rechenzentren in der Cloud statt und lassen sich nur mit Internetverbindung nutzen. Begrenzte Netzwerkbandbreiten, Latenzzeiten und Datenschutzvorgaben schließen viele KI-Anwendungsbereiche somit von vornherein aus. Das soll sich ändern.

Die nächste Entwicklungsstufe ist die Verlagerung der künstlichen Intelligenz von der Cloud an den Rand des Netzwerks (Edge), direkt in das Endgerät. Das maschinelle Lernen zieht in Roboter, Tablets, Smartpones, Kameras, IoT-Geräte wie Sensoren, Medizin-Equipment und andere autonome Edge-Devices ein. So kann ein Großteil der Daten direkt vor Ort ressourcenschonend und in Echtzeit verarbeitet werden. In der Regel findet dabei das so genannte Training (also das Gewinnen von Erkenntnissen) nach wie vor in der Cloud statt, während sich das Inferencing (also das Ziehen von Schlussfolgerungen aus den Erkenntnissen und damit der eigentlich intelligente Teil des Prozesses) in die Edge verlagert.

KI-Prozessoren für das Smartphone

Kirin 970 von Huawei ist einer der ersten Smartphone-Prozessoren, der neben dem üblichen Haupt- und Grafikprozessor eine Recheneinheit speziell für künstliche Intelligenz besitzt: die Neural Processing Unit (NPU). Das Achtkern-SoC nach Big-Little-Prinzip kommt im Mate 10 von Huawei zum Einsatz. Die NPU soll rechenintensive Aufgaben wie Bild- und Spracherkennung bis zu 20 Mal schneller erledigen als herkömmliche CPUs.

Die Smartphone-Kamera nutzt die Rechenpower, um Menschen, Tiere und Blumen zu erkennen und die Bildeinstellungen entsprechend anzupassen. Auch Apple hat seinen neuesten iPhones eine KI-Einheit spendiert. Sie wird für Face ID gebraucht und soll nach einer Lernphase das Gesicht des Nutzers zuverlässig erkennen, selbst wenn er Brille oder Bart trägt. Im Pixel 2 und Pixel 2 XL von Google soll der Chip Pixel Visual Core Aufnahmen im HDR+-Modus der Smartpone-Kamera um den Faktor Fünf beschleunigen.

Maschinelles Lernen an den Rändern unterliegt aber noch einigen Einschränkungen in Sachen Leistung, Speicher und Stromverbrauch. Bei vielen Aufgaben sind die aktuellen Endgeräte also weiterhin auf Cloud-Rechner angewiesen.

Autohersteller: KI-Chips für autonomes Fahren im Eigenbau

Auch beim autonomen Fahren ist es wichtig, dass direkt im Fahrzeug genügend Rechenleistung für die Erkennung von Objekten und die Interpretation der Umgebung zur Verfügung steht. So lässt sich etwa die Entscheidung, ob gebremst werden soll, wenn ein Kind auf die Fahrbahn rennt, nicht in die Cloud auslagern.

Elektroauto-Pionier Tesla will die Chips für die Selbstfahr-Funktionen seiner Autos künftig selber produzieren, teilte Tesla-Chef Elon Musk – ein Anhänger vertikaler Integration – kürzlich mit. Geleitet wird die Prozessor-Entwicklung vom ehemaligen AMD-Chip-Architekten Jim Keller. Teslas hauseigene KI-Chips sollen das Rückgrat für vollständig autonomes Level-5-Fahren bilden und die aktuell verbauten Nvidia-GPUs ablösen. Die Tesla-Chips sollen ab 2019 verbaut und abwärtskompatibel sein. Bei seinen Selbstfahrfunktionen verzichtet der Autobauer auf Lidar-Scanner und setzt auf Kameras. Die neuen Chips sollen 2.000 Kamerabilder pro Sekunde verarbeiten können – also zehnmal mehr als mit der aktuellen Nvidia-Technologie.

Einen ähnlichen Ansatz verfolg die Google-Tochter Waymo in Zusammenarbeit mit Intel bei ihren selbstfahrenden Testfahrzeugen. Auch General Motors arbeitet an KI-Prozessoren und will 2019 autonome Roboter-Taxis in Betrieb nehmen. Daimler und Bosch entwickeln ein System für vollautomatisiertes Fahren der SAE-Level 4 und 5. Die mit maschinellen Lernverfahren entwickelten Algorithmen für die Fahrzeugbewegung sollen auf einem System mit KI-Prozessoren und Betriebs-Software von Nvida auf Basis der Drive-Pegasus-Plattform laufen. Mit Hunderten Billionen Operationen pro Sekunde soll das System Echtzeit-Operationen ausführen können. Daimler will eine autonom fahrende Shuttle-Flotte 2019 im Silicon Valley testen. Die Serienfertigung ist für Anfang des kommenden Jahrzehnts geplant.

China investiert in KI-Chips

China möchte bei KI-Chips vorne mitmischen und hat deshalb in den vergangenen Jahren massiv in den Ausbau der eigenen Chipindustrie investiert. Zu den KI-Chip-Quereinsteigern gehört Alibaba. Der chinesische Online-Versandhändler hat einen Quantencomputer angekündigt und will im zweiten Halbjahr 2019 einen selbst entwickelten KI-Inferenz-Chip für maschinelles Lernen namens AliNPU auf den Markt bringen. Er soll in autonomen Fahrzeugen, Smart Cities und in der Logistik eingesetzt werden.

electronica 2018

Erfahrend Sie mehr über die neuesten Embedded-Prozessoren für Machine Learning und adaptive Systeme auf der electronica Embedded Platforms Conference.

 

 

Huawei Kirin 970