Explainable Artificial Intelligence : Der Blick in die Black Box

| |
1 Star2 Stars3 Stars4 Stars5 Stars

Die Ergebnisse neuronaler Netze können immense Auswirkungen auf die Betroffenen haben. Deswegen müssen sie nicht nur korrekt sein, sondern auch hundertprozentig nachvollziehbar.

„Entscheidend ist, was hinten rauskommt“ bemerkte ehemals Altbundeskanzler Helmut Kohl. Das klingt erst einmal plausibel und lässt sich ungeachtet einer moralischen Dimension auf viele Bereiche gut anwenden. Besonders aber im wissenschaftlich-technischen Umfeld besitzt die Nachvollziehbarkeit von Ergebnissen neben der Reproduzierbarkeit einen hohen Stellenwert. Nicht zuletzt weil sie die Basis für weitere Entwicklungen bilden. Wenn sie dann aber auch noch sicherheitskritische Anwendungen steuern, muss Transparenz Pflicht sein.

Als typisches Beispiel gelten hier neuronale Netze. Sie lassen sich mittlerweile hervorragend trainieren und liefern verblüffend „richtige“ Ergebnisse. Allerdings ist oftmals nicht ganz klar, ob die Algorithmen auf sinnvollen Lösungswegen zu ihren „Weisheiten“ kommen.

So ergaben Tests von Forschern des Fraunhofer Heinrich-Hertz-Instituts HHI und der Technischen Universität Berlin, dass ein renommiertes KI-System beispielsweise Bilder anhand des Kontextes klassifizierte. Dabei landete alles in der Schublade „Schiff“, wenn viel Wasser im Bild zu sehen war. Wenn auch die Mehrzahl der Bilder mit dieser Strategie korrekt identifiziert wurden, in einem autonomen Fahrzeug mit der KI würde man nicht sitzen wollen.

Transparenz mit „Explainable Artificial Intelligence“

Explainable Artificial Intelligence
Die neue Technik Spectral Relevance Analysis fasst zusammen, aufgrund welcher Kriterien KI-Systeme Entscheidungen treffen. (Bild: Fraunhofer HHI).

Denn in sensiblen Anwendungsfeldern wie der medizinischen Diagnostik oder in sicherheitskritischen Bereichen müssen KI-Systeme absolut zuverlässige Problemlösungsstrategien liefern. Bislang war es jedoch nicht nachvollziehbar, wie sie ihre Entscheidungen treffen. Die sogenannte Layer-Wise Relevance Propagation (LRP) – eine Methode der Explainable AI (XAI)bringt nun aber Licht ins Dunkel. Und mit der Weiterentwicklung „Spectral Relevance Analysis (SpRAy)“ läßt sich ein breites Spektrum erlernten Verhaltens auch in riesigen Datensätzen identifizieren und quantifizieren.

In der Praxis misst LRP den Einfluss jeder Eingangsvariablen auf die Gesamtvorhersage und zerlegt die Entscheidungen des Klassifizierers. An jedem Knotenpunkt des Netzes erkennt sie, wie Informationen durch das Netz fließen und kann so auch sehr tiefe Neuronale Netze untersuchen.

Knowledge Base

Die aktuellen „Ethik-Richt­linien für ver­trau­ens­würdige KI“ der EU-Kommission.

 

Microsoft Research: Explainable AI for Science and Medicine, 21.05.2019.

 

 

 

 

Explainable AI (Bild: pixabay/CC0).

Der Blick ins Innere einer KI ist so kompliziert wie das Innere selbst. (Bild: pixabay/CC0).