Ultra Low Power: Mehr Puste für intelligente Roboter

| |
1 Star2 Stars3 Stars4 Stars5 Stars

Roboterschwärme könnten schon heute eigenständig komplexe Missionen erfüllen. Wäre da nicht das ewige Problem mit der Energieversorgung. Ein extrem genügsamer, vom Gehirn inspirierter Hybridchip könnte da in Zukunft Abhilfe schaffen.

In Venedig kann man mittlerweile neben Städte zerstörender Schwarmdummheit auch erste Vorboten künstlicher Schwarmintelligenz bestaunen. Denn in den Kanälen schwimmen im Rahmen des EU-Projektes „Subcultron“ falsche Fische, Muscheln und Seerosen, um den bedauernswerten Zustand der Lagune zu erkunden. Die Roboterschwärme entscheiden dabei nach anfänglicher Zielvorgabe selbst, wo sie Daten sammeln und wie lange. Die Methode hat viele Vorteile. Neben einer weiträumigen Erkundung und genaueren Ergebnissen durch größere Datenmengen ist selbst der Verlust eines „Kollegen“ leicht zu verschmerzen.

Eine Achillesferse bleibt allerdings: Wie bei allen mobilen Geräten ist die Energieversorgung niemals wirklich befriedigend. Das hält die kleinen Roboter noch von vielen Aufklärungs-, Such- und Rettungsmissionen ab. Mit leistungsfähigeren Akkus, Brennstoffzellen oder Energie-Harvestern ist es aber nicht getan. Auch die Elektronik muss mit dem vorhandenen Energiereservoir sparsamer umgehen.

Dafür haben Forscher des Georgia Institute of Technology jetzt einen vom Gehirn inspirierten Hybridchip mit einer Leistungsaufnahme im Milliwatt-Bereich entwickelt. Zusammen mit ebenso sparsamen Motoren und Sensoren erhöht er die Ausdauer von intelligenten Schwarmrobotern um ein Vielfaches.

„Ultra Low Power“ und Reinforcement Learning

Um Energie zu sparen, verwenden die neuronalen Chips einen hybriden digital-analogen Time-Domain-Prozessor, in dem die Impulsbreite der Signale die Informationen codiert (Pulsbreitenmodulation, Pulsdauermodulation).

Der neue 65-nm-CMOS-Chip lässt sich modellbasiert programmieren, beherrscht aber auch kollaboratives Reinforcement Learning – neben Supervised und Unsupervised Learning die dritte große Gruppe von Machine-Learning-Verfahren. Sie führt wie in frühen Stadien des menschlichen Lernens über eine einfache „Trial and Error“-Exploration der Umwelt zu Lösungen. Die Umgebung reagiert dabei auf jede Aktion mit einer „Belohnung “ oder „Bestrafung“. Daraufhin passt der Roboter sein zukünftiges Verhalten an und versucht letztlich herauszufinden, wie er zu einer maximalen „Belohnung“ gelangt. Der bekannteste Vertreter dieser Methode ist wohl Googles AlphaGo.

In einer kollaborativen Umgebung muss jeder Schwarmroboter allerdings nicht nur auf Basis seiner eigenen Belohnungen entscheiden, sondern auch die seiner Gruppe berücksichtigen. Die Strategie richtet sich deshalb nicht darauf aus, nur seine eigenen „Belohnungen“ zu maximieren, sondern den Gesamtlohn des ganzen Schwarmes.

Knowledge Base

Ningyuan Cao, Muya Chang, Arijit Raychowdhury, “A 65 nm 1.1-to-9.1 TOPS/W Hybrid-Digital-Mixed-Signal Computing Platform for Accelerating Model-Based and Model Free Swarm Robotics.” (2019 IEEE International Solid-State Circuits Conference).

 

 

 

 

Hybridchip (Bild: Allison Carter, Georgia Tech).

Ein „Brain-chip“ mit extrem geringer Leistungsaufnahme für modellbasierte Programmierung und Reinforcement Learning. (Bild: Allison Carter, Georgia Tech).