Algorithmic Bias: „Künstliche“ Gerechtigkeit

| |
1 Star2 Stars3 Stars4 Stars5 Stars

Wer von Vorbildern lernt, übernimmt dessen Vorurteile. Das gilt auch für Algorithmen, die immer weitere Bereiche unseres Lebens beeinflussen. Ein neues „AI Fairness Tool“ soll das zukünftig verhindern.

Immer häufiger treffen Algorithmen wichtige Entscheidungen über unser Leben. Und das bezieht sich diesmal nicht auf “crashende” autonome Fahrzeuge oder Maschinen, die töten. Die Anwendungen sind weniger spektakulär, die Auswirkungen dafür um so größer. Denn Algorithmen sortieren mittlerweile Bewerbungen vor, prognostizieren Rückfallwahrscheinlichkeiten von Straftätern, fahnden nach Steuerschulden oder berechnen in China mit einem „Citizen Score“ die soziale Zuverlässigkeit der Bürger.

Dazu werden riesige Mengen an Daten analysiert, um Muster zu erkennen und Entscheidungen zu treffen. Unter KI-Entwicklern kursiert in dem Zusammenhang der Spruch: „Müll rein, Müll raus“. Wenn also die Daten, mit denen die Systeme gefüttert werden, diskriminierende Elemente beinhalten, werden die daraus resultierenden Entscheidungen auch nicht vorurteilsfrei sein.

Da hilft es nicht, in den Modellen einfach die Variablen mit Diskriminierungspotential wie etwa „Alter“, „Geschlecht“ oder „ethnische Zugehörigkeit“ wegzulassen. Denn auch über andere Variablen wie etwa „Beruf“ lässt sich auf das „Geschlecht“ schließen. An Hand solcher Korrelationen werden schließlich die Modelle entwickelt.

Politik gegen „Algorithmic Bias“

Da diese sogenannte „algorithmische Voreingenommenheit“ (Algorithmic Bias) zu schwerwiegenden sozialen Problemen führen kann, steht sie mittlerweile auf der politischen Agenda. So hatte sich letztes Jahr der damalige Bundesjustizminister Heiko Maas für ein digitales Antidiskriminierungsgesetz ähnlich dem analogen Allgemeinen Gleichbehandlungsgesetzes ausgesprochen.

Auch die Europäische Kommission fühlt sich mittlerweile in der Pflicht. Erst vor kurzem berief sie 52 Vertreter/innen aus Zivilgesellschaft, Wissenschaft und Wirtschaft in eine High-Level Expert Group on Artificial Intelligence (AI HLG) für Künstliche Intelligenz (KI). Diese soll unter anderem die Anwendung der EU-Grundrechtecharta wie die Würde des Menschen und die Gleichbehandlung auf KI prüfen.

Werkzeug für Gerechtigkeit

Die Unternehmensberatung Accenture hat nun dieser Tage mit dem „AI Fairness Tool“ ein Werkzeug vorgestellt, mit dem Staat und Unternehmen das Diskriminierungspotential ihrer KI-Systeme testen können. Als eine Art Frühwarnsystem richtet es sich vor allem an Anwender ohne technischen Hintergrund.

Die Überprüfung der Algorithmen findet dabei in drei Stufen statt. Das Tool klopft erst einmal personenspezifische Daten innerhalb einer KI-Anwendung auf diskriminierende Effekte ab. Neben den offensichtlich Merkmalen wie „Geschlecht“, „Religion“ oder „ethnische Zugehörigkeit“ schließt die Prozedur auch korrelierende Variablen mit ein. So erlaubt etwa die „Berufswahl“ Rückschlüsse auf das „Geschlecht“, weil beide stark miteinander korrelieren.

Daneben testet das Tool ebenso den Algorithmus selbst auf mögliche Benachteiligungen. Etwa, wenn bestimmte gesellschaftliche Gruppen abweichende Ergebnisse liefern, die nicht den tatsächlichen Verhältnissen entsprechen. So konnte Wissenschaftler zeigen, dass ein Algorithmus zur Bestimmung von Kreditrisiken nichtdeutsche Staatsbürger benachteiligte, obwohl die Variable „Nationalität“ die Vorhersagekraft des Modells eigentlich nicht signifikant beeinflusste.

Zu guter letzt ermittelt das „AI Fairness Tool“, wie stark ein „fairer“ Algorithmus mit einer typischerweise geringeren Anzahl von Variablen die Aussagekraft eines Modells verringert.

Es wird sich zeigen, wie das „AI Fairness Tool“ in der Praxis funktioniert. Tatsache ist: Das Thema ist von enormer Wichtigkeit. Denn im Gegensatz zum Menschen, der nicht jedes Vorurteil in eine Handlung umsetzen muss und auch nicht tut, sind Maschinen ihren Vorurteilen hoffnungslos „ausgeliefert“.

 


Erfahren Sie mehr über Technologien der künstlichen Intelligenz auf dem Embedded Forum der electronica.

 

 

 

 

 

Algorithmic Bias (Bild:pixabay)

Auch eine algorithmische Voreingenommenheit kann zu schwerwiegenden sozialen Problemen führen. (Bild:pixabay).