Black Lives Matter: Der Schriftzug prangt nicht nur in Washington, sondern auch in anderen US-amerikanischen Städten auf den Straßen, hier in Minneapolis, der Stadt, in der ein weißer Polizist den schwarzen Amerikaner George Floyd bei einem Einsatz tötete.
+
Black Lives Matter: Der Schriftzug prangt nicht nur in Washington, sondern auch in anderen US-amerikanischen Städten auf den Straßen, hier in Minneapolis, der Stadt, in der ein weißer Polizist den schwarzen Amerikaner George Floyd bei einem Einsatz tötete.

Digital diskriminiert

Rassismus gibt es auch bei Künstlicher Intelligenz - Das muss nicht sein

  • vonArmand Zorn
    schließen

Ob Systeme zur Spracherkennung oder Programme für die Vorhersage von Verbrechen: Künstliche Intelligenz kann Menschen diskriminieren. Es gibt Technologien und Konzepte, die das verhindern können.

  • Künstliche Intelligenz gilt vielen noch immer als neutrale Bewertungsinstanz.
  • Doch auch Künstliche Intelligenz kann rassistisch sein.
  • Es gibt Möglichkeiten, der Künstlichen Intelligenz ihren Rassismus abzugewöhnen.

Nach dem Tod von George Floyd verschärft sich die Debatte rund um Rassismus auch hierzulande. Dies bezieht sich nicht nur auf menschliches Verhalten, sondern zunehmend auch auf strukturelle und institutionelle Diskriminierung. Die digitalpolitische Komponente von Diskriminierung hat allerdings in der breiten Öffentlichkeit bisher relativ wenig Aufmerksamkeit erhalten. Dabei können Algorithmen, bei denen meist per se angenommen wird, sie seien besonders objektiv und neutral, Diskriminierung reproduzieren und verschärfen

Beispiele für rassistische Künstliche Intelligenz gibt es einige

Ein prominentes Beispiel ist eine von vielen US-Richterinnen und -Richtern benutzte Software, welche die Wahrscheinlichkeit, dass ein vorzeitig erlassener Häftling wieder straffällig wird, ermittelt. Eine Untersuchung des Journalistenverbundes ProPublica wies eine Diskriminierung aufgrund der Hautfarbe nach.

Der Algorithmus bewertete das Risiko bei dunkelhäutigen Straftätern systematisch höher, während weiße Häftlinge in der Regel häufiger fälschlich mit einem geringen Risiko eingestuft wurden. Problematisch ist zudem, dass weder den Betroffenen noch den Richterinnen und Richtern die genauen Regeln zur Ermittlung der Wahrscheinlichkeit bekannt waren.

Künstliche Intelligenz diskriminiert nicht nur nach Hautfarbe

Die Ungleichbehandlung nach ethnischer Herkunft bei Spracherkennungssystemen ist ein weiteres Beispiel von Diskriminierung durch Künstliche Intelligenz (KI). Untersuchungen haben ergeben, dass Assistenzsysteme wie Siri, Alexa oder Amazon Echos sowie Chatbots oder automatisierte Telefonsysteme eine höhere Genauigkeit in der Spracherkennung von Weißen im Vergleich zu afroamerikanischen Sprecherinnen und Sprechern haben. Akzente und Dialekte von Minderheiten werden durch diese Anwendungen schlechter erkannt.

Auch Online-Suchmaschinen können Diskriminierung reproduzieren und verschärfen. Besonders bei Eingaben mit konkretem Bezug zu schwarzen Frauen wurden viele Ergebnisse aus pornografischen und anderen stereotypischen Bereichen gefunden. Weitere Beispiele, wie die Google Foto-App, bei welcher der Algorithmus Bilder von schwarzen Menschen mit „Gorilla“ betitelte, verdeutlichen die Dimension der Diskriminierung.

Auch Künstliche Intelligenz leider unter rassistischer Verzerrung

Algorithmen suchen nach statistischen Zusammenhängen in Datensätzen und leiten daraus selbstständig Regeln ab. Diskriminierung wird in der Regel durch Verzerrungen (Bias) verursacht. Dies entsteht, wenn es eine bewusste oder unbewusste Über- oder Unterrepräsentation von Bevölkerungsgruppen in den verwendeten Trainingsdaten gibt.

Daten sind ein Abbild von gesellschaftlichen Situationen, in denen möglicherweise Diskriminierung vorliegt. Schließlich kann es auch aufgrund von Effizienz und Kostenersparnis sowie fehlender Sensibilität von Entwicklern zur Nutzung von verzerrten Trainingsdatensätzen kommen.

Wenn dunkelhäutige Menschen in den USA häufiger verhaftet und verurteilt werden, sind sie überproportional in den Trainingsdaten der Algorithmen vertreten. Allerdings heißt das nicht, dass sie per se eine größere Gefahr für die Gesellschaft darstellen, wie es von der Software vorhergesagt wird. Vielmehr spiegeln die Daten die Diskriminierung des US-Justizsystems wider.

Entscheidend ist das Training der Künstlichen Intelligenz

Die Ungleichbehandlung bei Spracherkennungssystemen basiert darauf, dass die Algorithmen mit unzureichenden Datensätzen antrainiert wurden, in denen bestimmte Bevölkerungsgruppen kaum vertreten sind. Dementsprechend konnten die Dialekte oder Akzente von dunkelhäutigen Menschen nicht ausreichend erlernt werden und werden somit in der Anwendung vom Algorithmus schlechter erkannt und verstanden. Ähnlich verhält es sich mit der automatischen Verschlagwortung von Bildern durch die Google Foto-App.

Um KI diskriminierungsfrei zu gestalten, sind folgende Maßnahmen nötig: Antidiskriminierungsgesetze müssen mit dem technologischen Fortschritt Schritt halten. Die Empfehlungen der Datenethikkommission und der Europäischen Kommission sind vielversprechend. Zudem vernetzen sich zunehmend Digitalunternehmen in Verbänden und entwickeln Leitlinien für die Entwicklung und den Einsatz von KI. Diese Regeln gilt es konsequent umzusetzen.

Rassismus ist bei Künstlicher Intelligenz nicht das einzige Problem

Des Weiteren bedarf es einer besseren Prüfung und Bewertung von KI-Modellen hinsichtlich Robustheit, Schutz der Privatsphäre und Freiheit von diskriminierenden Verzerrungen. So könnte man beispielsweise mit der Beratung von Entwicklerinnen und Entwicklern durch Antidiskriminierungsstellen gewährleisten, dass ethische Standards im Produktentwicklungsprozess explizit berücksichtigt werden. Sinnvoll wäre es, Programme vor ihrem Einsatz zu testen und so weit zu modifizieren, dass sie „diskriminierungsfrei by design“ sind. Ein weiterer prominenter Vorschlag ist die Errichtung eines „Algorithmus-TÜV“ als unabhängige Aufsicht, welche die Einhaltung der gesetzlichen Vorgaben überprüft.

Armand Zorn ist Digitalexperte und Vorstandsmitglied der Frankfurter SPD.

Kommentare

Liebe Leserinnen und Leser,

wir bitten um Verständnis, dass es im Unterschied zu vielen anderen Artikeln auf unserem Portal unter diesem Artikel keine Kommentarfunktion gibt. Bei einzelnen Themen behält sich die Redaktion vor, die Kommentarmöglichkeiten einzuschränken.

Die Redaktion