Deep Learning: Neuronale Telepathen

| |
1 Star2 Stars3 Stars4 Stars5 Stars

Dem Gehirn bei der Arbeit zuschauen ist schon lange der Traum vieler Neurowissenschaftler. Und der könnte jetzt wahr werden. Denn neue Deep-Learning-Algorithmen entziffern anhand von Gehirn-Scans  genau das, was man sieht.

Hinter den Bildern in unseren Köpfen sind Forscher schon lange her. Unter anderem mit sogenannten funktionellen Magnetresonanztomografen (fMRT). Aber deren Scans führten bislang nicht wirklich zu „ansehnlichen“ Ergebnissen. Auch die Kommunikation zwischen Mensch und Maschine per Gehirnsteuerung steckt zumindest was Alltagstauglichkeit angeht in den Anfängen. Das könnte sich jetzt ändern. Forscher der Chinese Academy of Sciences entwickelten Algorithmen für neuronale Netzwerke, die Erstaunliches leisten. Sie rekonstruieren anhand von Gehirn-Scans betrachtete Bilder. Und das mit nie da gewesener Genauigkeit.

Im Fokus steht dabei der visuelle Cortex – die „sehende“ Abteilung unseres Gehirns. Dort leuchten – etwa wenn Sie diesen Artikel lesen – laufend sich ändernde komplexe dreidimensionale Muster auf. Abhängig davon, welches Zeichen Sie gerade betrachten.

Der erste Schritt besteht nun darin, die 3D-Patterns mit der funktionellen Magnetresonanztomographie sichtbar zu machen und aufzuzeichnen. Das Prinzip ist einfach: Aktivierte Hirnareale reagieren mit sauerstoffangereichertem Blutfluss. Wird der Sauerstoff an Nervenzellen abgegeben, ändern sich die magnetischen Eigenschaften des Transport-Moleküls Hämoglobin. So lässt sich mit dem fMRT genau verfolgen, wo viel sauerstoffreiches Blut hinfließt.

Telepathisches Deep Learning

Im nächsten Schritt werden die Algorithmen für das Deep Learning – auch als Deep Generative Multiview Model (DGMM) bezeichnet – mit einer ausreichenden Menge an Gehirn-Scans plus der tatsächlichen Bilder „gefüttert“. So lernen sie selbständig die 3D-Muster des Gehirns den entsprechenden 2D-Zeichen zuzuordnen.

Die chinesischen Wissenschaftler zogen dazu 1800 fMRT-Scans von Probanden früherer Studien mit handgeschriebenen Buchstaben und Zahlen heran. Allerdings nur 90 Prozent davon, anhand der zehn verbliebenen Prozent musste der Algorithmus zeigen, was er „gelernt“ hat, also zeichnen was die Versuchsteilnehmer wohl gesehen haben könnten.

Deep Learning (Bild: Chinese Academy of Sciences).
Die besten Ergebnisse liefert der DGMM-Algorithmus. (Bild: Chinese Academy of Sciences).

Das Resultat ist beeindruckend. Das neuronale Netz konnte die handschriftlichen Buchstaben und Ziffern exakt erkennen. Zwar kommen bislang die Daten nur von einer Handvoll Versuchsteilnehmer. Es muss sich also erst zeigen, welchen Einfluss eine breitere Probantenbasis auf die Trefferquote haben wird. Die Forscher sind aber schon einen Schritt weiter und wollen als nächstes versuchen Videos zu „knacken“. Ein ungleich schwierigeres Unterfangen.

Der übernächste Schritt wird dann wohl sein, endlich direkt ins „Ich“ zu schauen. Etwa beim Träumen. Auch das wurde schon via fMRT versucht. Allerdings mit wenig traumhaften Ergebnissen. Möglicherweise helfen Verfahren wie der DGMM-Algorithmus dabei in Zukunft.

 

Knowledge Base

arXiv.org: „Sharing deep generative representation for perceived image reconstruction from human brain activity„.

 

 

 

Magnetresonanztomographie (Bild: pixabay).

Magnetresonanztomographie macht zusammen mit neuen Deep-Learning-Algorithmen Gedanken sichtbar. (Bild: pixabay).