TREND Embedded: Das „Auge“ der KI

| |
1 Star2 Stars3 Stars4 Stars5 Stars

Viel Rechnerleistung und wenig Stromverbrauch im Miniformat machen Embedded Vision zum Shootingstar der Bildverarbeitung. Dabei sorgt vor allem Deep Learning für beeindruckende Ergebnisse.

Die Sinne des Menschen dienen vielen technischen Entwicklungen als Blaupause. Das trifft im Besonderen auf die automatische Bildverarbeitung zu. Auch wenn sie in mancherlei Hinsicht ihr Vorbild längst übertroffen hat. Schnell an ihre Grenzen stößt sie nach wie vor, wenn etwa Form oder Textur zu stark variieren oder Objekte schwer mathematisch modellierbar sind. In dem Fall können Methoden der künstlichen Intelligenz wahre Wunder bewirken.

Dabei sind speziell sogenannte Convolutional Neural Networks (CNNs) eine bei „Bildverarbeitern“ beliebte Deep-Learning-Architektur. Sie macht die enorm zeitaufwändige Merkmalsextraktion aus der Pixelmatrix von Bildern überflüssig, indem sie anhand digitaler Bilddaten Modelle trainiert, die dann für die Objekterkennung sorgen. Und das bei geringerem Zeitaufwand und in der Regel höheren Erkennungsraten.

Embedded Vision und KI

Entwickler müssen also „nur“ noch ein CNN mit den passenden Beispielbildern trainieren. Das können Gut- und Schlechtteile sein, aber auch Hautkrebsaufnahmen oder verfaulte Bananen. Wer allerdings in seinem Unternehmen eigene Deep-Learning-Netze „anlernen“ will, benötigt hunderttausende solcher Bilder mit den passenden Motiven und außerdem ziemlich rar gesäte Experten auf dem Gebiet. Praktikabler dürften da vortrainierte Netze sein. Ein paar Hundert zusätzliche Beispielbilder reichen dann oftmals, um in wenigen Stunden einen bestimmten Fehler gezielt nachzutrainieren und damit identifizieren zu können. Machine-Vision-Anwendungen mit KI-Unterstützung lassen sich also schnell und kostengünstig in immer mehr Bereichen einsetzen.

Embedded Vision „at the edge“

Embedded Vision at the Edge
Noch sind Smartphones beinahe die einzigen KI-Edge-Geräte. (Bild: Tractica).

Dies gilt zunehmend auch für tragbare Geräte. Man denke nur an die Gesichtserkennung in den neuesten Smartphones, an Drohnen oder an Spielen mit virtueller Realität (VR). Was im Consumerbereich funktioniert, hält nun auch in der Industrie, Medizin oder im Automobilbau Einzug. Dort werden intelligente Algorithmen und spezialisierte Embedded-Prozessoren in Zukunft für autonome, energie- und kostensparende Geräte mit Embedded-Vison-Anwendungen ohne Cloud-Anbindung sorgen. In der Wolke findet dann zwar immer noch das Training der neuronalen Netze statt. Die Inferenz, also das Schlussfolgern aus neu gesammelten Daten, passiert aber direkt vor Ort („at the edge“).

Der Marktforscher Tractica erwartet dass alleine der Chip-Markt für Deep Learning von 1,6 Milliarden US-Dollar letztes Jahr auf 66,3 Milliarden US-Dollar bis 2025 ansteigen wird. Edge-Computing soll dabei mehr als drei Viertel des Volumens beanspruchen.

Embedded Vision mit KI-Unterstützung wird man also zukünftig in vielen IoT-Geräten antreffen. Beispiele dafür gibt es heute schon.

So soll etwa in der zweiten Generation der Augmented Reality-Brille „Hololens“ von Microsoft der Chip (Holographic Processing Unit, HPU), in dem alle Sensordaten verarbeitet werden, Deep-Learning-Kerne bekommen. Bilder werden dann im Headset erfasst, gespeichert und verarbeitet – ohne Internetzugang und ohne Datentransfer zu und von einer Cloud.

Ähnlich verfährt die Hightech-Kamera OrCam MyEye. Angebracht an eine Brille sorgt sie in Verbindung mit KI-Algorithmen dafür, dass Sehbehinderte trainierte Personen und Gegenstände erkennen. Anfang des Jahres wurde sie offiziell als Hilfsmittel durch die gesetzlichen Krankenkasse anerkannt.

Industrie braucht eingebettete Bildintelligenz

Auch in der modernen Fabrik wandeln sich Embedded-Vision-Systeme bereits zu intelligenten, autonomen „Kollegen“.

So soll die „AI: In Production“-Initiative von Aaeon Technologies (Halle B5 Stand 140) und Intel (Halle C4 Stand 402) mit Intels „Myriad 2 Vision Processing Unit (VPU)“ industrielle Embedded-Anwendungen beschleunigen. Das Ein-Chip-System (System-on-Chip, SOC) kombiniert dazu High-Speed-Hardware für Bildverarbeitungsfilter, CPU und neuronale Recheneinheiten für die Beschleunigung von Vektor-Matrix-Operationen. Mit einer Leistungsaufnahme von gerade einmal einem Watt kommt die VPU dem Low-Power-Bedürfnis von Edge-Geräten nach. Aaeon bietet ihn auf der PCI-Express-Mini-Card „AI Core“ zusammen mit 512 MB Speicher für 69 US-Dollar an.

Auch der Kamerahersteller Flir (Halle A3 Stand 207) profitiert von Intels „Myriad 2 Vision Processing Unit“. Die neue Flir-Kamera kann damit vorab trainierte neuronale Netze in Vision-Anwendungen einsetzen. Ein Bildverarbeitungssystem für Edge-Inferenz mit der VPU im Intel Neural Compute Stick kommt ab 2019 für weniger als 1.000 Dollar in den Handel.

Die Zusammenarbeit zwischen dem Prozessor-Entwickler ARM und dem Grafikprozessor (GPU)-Hersteller NVIDIA soll Deep Learning auf internetfähige Geräte bringen. Dadurch erhalten Arm’s KI-Prozessoren der Trillium-Plattform NVIDIA’s Deep-Learning-Beschleuniger, um insbesondere maschinelles Lernen für mobile, Embedded- und IoT-Anwendungen zu unterstützen. Die Entwicklung eines IoT-KI-SoC für kleine und mobile Geräte wird damit erheblich erleichtert.

 


Erfahren Sie mehr über Embedded Vision auf dem Embedded Forum.

 

 

 

 

 

 

 

TREND Auge der KI (Bild:pixabay/Pete Linforth)

Mit eingebetteter Bildverarbeitung und Deep Learning agieren Maschinen zukünftig selbstständig.(Bild:pixabay/Pete Linforth).