TREND Explainable AI: Hinter den Kulissen

| |
1 Star2 Stars3 Stars4 Stars5 Stars

Wie KI zu ihren verblüffenden Ergebnissen kommt, bleibt meist im Dunkeln. Sicherheitskritische Anwendungen und regulatorische Vorgaben verlangen jedoch zunehmend den Blick in die Blackbox.

Erst vor kurzem erhielten DFKI-Forscher den „NVIDIA Pioneer Award“ für ihre Arbeit „What do Deep Networks Like to See?“. Das neuartige Analyseverfahren erlaubt weitreichende Einblicke in die Eigenschaften und Verarbeitungsprozesse tiefer neuronaler Netze. Damit liegen die Wissenschaftler voll im Trend. So erwarten etwa Analysten von PricewaterhouseCoopers (PwC) in ihren „10 KI-Trends für 2018“, dass zunehmend Regulierungsbehörden und Endanwender den Blick in die Blackbox KI fordern werden. Dabei ist das Problem der Erklärbarkeit (Explainable AI) eigentlich so alt wie die künstliche Intelligenz selbst.

Schon immer erhoffte man sich dadurch ein besseres Verständnis für die intelligenten Maschinen. Mittlerweile sind allerdings eine ganze Reihe weiterer Gründe hinzugekommen. So werden Rufe lauter, in sicherheitskritischen Anwendungen wie etwa dem autonomen Fahren und in öffentlichen Einrichtungen für Justiz, Gesundheitsversorgung oder Bildung gänzlich auf Blackbox-Algorithmen zu verzichten. Dazu kommen regulatorische Vorgaben. Mit der neuen EU-Datenschutz-Grundverordnung (DSGVO) könnte zum Beispiel in ganz Europa ein „right to explain“ etabliert werden. Und nicht zuletzt hängt die Akzeptanz für eine neue Technologie sowohl in der Gesellschaft als auch in den Unternehmen von ihrer Transparenz ab. Genügend Argumente also, um das Thema „Explainable AI“ ganz oben auf der Agenda anzusiedeln.

KI unter Drogen

Die wohl bekannteste und eindrucksvollste Methode der KI auf die Finger zu schauen, stellte Google mit „Deep Dream“ 2015 vor. Dabei trainierten Forscher wie üblich ein neuronales Netz anhand von Beispielbildern. Anstatt aber damit neue Bilder zu klassifizieren, ließ man den Algorithmus „künstlerisch“ tätig werden.

Explainable AI Deep Dream Wikipedia CCO
Nach der Veröffentlichung des Quellcodes, entstanden eine Reihe von Deep-Dream-Generatoren. (Bild: Wikipedia / MartinThoma CCO).

Grob vereinfacht: Nach dem Training eines Convolutional Neural Networks (CNN) mit einer Unmenge von Hunde-Bildern stellen sich die Parameter des Netzes dahingehend ein, dass das Ergebnis auf diese Eingangsdaten richtigerweise „Hund“ ergibt. Im zweiten Schritt gibt man nun ein beliebiges Bild ein und lässt das Neuronale Netz das Bild so verändern, dass als Antwort „Hund“ herauskommt.

Dabei resultieren hohe Aktivierungen in den oberen Schichten des Netzes in simpleren Mustern, da diese Teile des Netzes für die einfachen Strukturen zuständig sind. Die komplexeren Strukturen der tieferen Schichten sorgten dann bei dem Experiment vor drei Jahren dafür, dass Deep Dream an LSD-Trips erinnerte und schnell zum viralen Hit avancierte.

 

Explainable AI im Rückwärtsgang

Ein ebenfalls „rückwärtsgewandtes“ Verfahren zum Verständnis neuronaler Netze haben mit der „Layer-wise Relevance Propagation“ (LRP) Forscher am Fraunhofer HHI und der Uni Berlin 2015 entwickelt.

Explainable AI (Bild: Fraunhofer HHI)Das Verfahren zerlegt die einzelnen Schritte etwa bei einer Bilderkennung sozusagen im Rückwärtsgang. Es betrachtet, welche Neuronen welche Entscheidung getroffen und wie stark diese zum Endergebnis beigetragen haben. Herauskommt eine sogenannte „Heatmap“ (siehe Demos), die zeigt, welche Pixel die Eingruppierung des Bildes besonders stark beeinflussen. Diese Methode ist im Gegensatz zu vielen anderen nicht nur auf Bilderkennung, sondern universal anwendbar.

Ein Beispiel verdeutlicht, wie wichtig solche Verfahren für den Einsatz von datengetriebenen Lern-Algorithmen vor allem in den lebenswichtigen Anwendungen ist. Die Forscher stellten nämlich fest, dass von zwei „Intelligenzen“, die Pferde identifizieren konnten, nur eine tatsächlich gelernt hatte, Pferde an Hand ihres typischen Körperbaus zu erkennen. Das zweite Programm orientierte sich in der Hauptsache an den Copyright-Zeichen der Fotos, die zu den Foren von Pferdeliebhabern führten.

Das letzte Beispiel kann das Misstrauen gegenüber Systemen mit künstlicher Intelligenz sicher nicht zerstreuen. Deswegen ist es wichtig, Methoden zu entwickeln, die für Transparenz, Erklärbarkeit aber auch Beweisbarkeit sorgen. Sowohl Regulierungsbehörden als auch die Endanwender werden diesen Blick in die Blackbox zunehmend fordern.

 


Erfahren sie über den Einsatz von KI in sicherheitskritischen Anwendungen wie etwa dem autonomen Fahren auf der electronica Automotive Conference 2018.

 

 

 

 

Explainable AI (Bild: pixabay/CC0).

Der Blick ins Innere ist so kompliziert wie das Innere selbst. (Bild: pixabay/CC0).