Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für FR.de. Danach lesen Sie FR.de gratis mit Werbung.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf FR.de
  • Zum Start nur 0,99€ monatlich
  • Zugang zu allen Berichten und Artikeln
  • Ihr Beitrag für unabhängigen Journalismus
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Frauen und andere marginalisierte Gruppen erfahren im Netzt extrem viel Hass.
+
Frauen und andere marginalisierte Gruppen erfahren im Netzt extrem viel Hass.

Interview

Hass im Netz: Netzaktivistin Katharina Mosene über diskriminierende Algorithmen

  • Elena Müller
    VonElena Müller
    schließen

Kein demokratischer Raum: Netzaktivistin Katharina Mosene über die Verdrängung von Frauen aus dem Netz, ungerechte Algorithmen und eine hilflose Politik

Frau Mosene, Sie setzen sich für ein gerechteres Internet ein - doch das Internet besteht in seiner technischen Grundlage doch nur aus dem binären Code, aus 1 und 0 also. Wie kann das ungerecht sein?

Das Internet ist tatsächlich erstmal ein Raum, an dem Menschen unabhängig von Geschlecht, Herkunft, Hautfarbe und vielem mehr teilhaben und in dem sie öffentliche Diskurse führen können. An den Hashtag-Aktivismen der vergangenen Jahre, wie der #MeToo-Bewegung, können wir sehen, dass das Internet marginalisierten Gruppen eine Stimme geben kann. Doch wir sehen auf der anderen Seite, dass das Narrativ des Internets sehr stark männlich und weiß konnotiert ist. Denken wir an Bill Gates, Mark Zuckerberg, Jeff Bezos – alles weiße Männer aus dem globalen Norden, die das Internet geformt haben und ihm bis heute seine Form geben, die bis heute die Vision des Internets prägen.

Und das muss sich ändern?

Ja, das muss aufgebrochen werden, weil es natürlich auch Frauen gibt, die in der Tech-Entwicklung eine Rolle spielen. Doch Frauen und marginalisierte Gruppen sind besonders im Bereich der Künstlichen Intelligenz massiv marginalisiert. Denn derjenige, der die Dinge erschafft, gibt ihnen auch ihren Sinn. Wenn technische Kontexte entstehen, die vor allem von der Erwartungshaltung und dem Wissen weißer Männer geprägt sind, dann fallen da automatisch bestimmte Gruppen raus, die einen ganz anderen Zugriff auf die Themen hätten. Wir sehen deshalb auch im Internet eine starke Tradierung bekannter Macht- und Herrschaftssysteme. Das Internet kann also schon deshalb nicht gerecht und gleichberechtigt sein, weil die Gesellschaft es schlicht nicht ist.

Hass im Netz: Frauen und andere marginalisierte Gruppen erfahren im Netz viel Hass

Können Sie ein konkretes Beispiel nennen?

Ein gutes Beispiel ist die digitale Gewalt gegen Frauen, der sogenannte Hate Speech. Da sehen wir, dass Plattformen der Logik der Aufmerksamkeitsökonomie und der Algorithmen folgen. Posts, die sehr viele Klicks verursacht haben, weil sie häufig geteilt wurden, werden vom Algorithmus bevorteilt und tauchen daher sehr weit oben in den Timelines der Plattformen auf – das sind allerdings häufig Posts, die – freundlich gesagt – kontrovers, schlimmstenfalls aber offen rassistisch, antisemitisch oder frauenfeindlich sind. Die Logik der Algorithmen gibt dann diesen ausschließenden Meinungen eine ganz andere Sichtbarkeit. Das hat zu einer Schieflage geführt. Die Plattformen und auch der Gesetzgeber haben zwar daran gearbeitet, dies zu ändern, dennoch haben wir noch einen weiten Weg zu gehen, bis wir sagen können, dass sich tatsächlich alle Menschen gleichberechtigt im Internet bewegen können.

Lesen Sie auch: Wie der Verein Hate Aid Opfern digitaler Gewalt hilft

Wie sorgen diese Vorgänge dafür, dass noch mehr Ungleichheit entsteht?

Das liegt an Mechanismen, die zum sogenannten Silenceing führen: Frauen und Mitglieder anderer marginalisierte Gruppen ziehen sich aus diesen Räumen zurück, weil sie massiv bedroht werden. Das war vielfach zu beobachten bei Bundestagsabgeordneten, Lokalpolitiker:innen, Journalist:innen und Aktivist:innen. Wenn sich diese Leute aber aus dem Diskurs raushalten deren Meinung wir aber in demokratischen Aushandlungsprozessen brauchen, dann führt das zu einer maximal verzerrten Außenwahrnehmung.

Katharina Mosene, Jahrgang 1989, ist Politikwissenschaftlerin und arbeitet am Leibniz- Institut für Medienforschung in Hamburg und Berlin. Sie engagiert sich für Netzforma, einem Verein für feministische Netzpolitik, der sich schwerpunktmäßig mit den Themen Teilhabe, Big Data, Algorithmen, Künstliche Intelligenz, Überwachungstechnologien und Datenschutz im Internet beschäftigt. elm

Algorithmen sind aber ja nicht automatisch ungerecht. Eine Analogie aus der realen Welt dazu: Vor einigen Jahren kam die Diskussion darauf, das Crashtest-Dummies ausschließlich an männlichen Körpern orientiert sind. So etwas ist ja nicht intendiert, sondern vielmehr so, weil niemand an die Frauen gedacht hat, oder?

Vieles ist nicht intendiert, auch im Bereich der Künstlichen Intelligenz nicht. Aber spätestens, wenn wir sehen, dass sich bestehende Diskriminierungsstrukturen verstärken, müssen wir darüber nachdenken, wie diese Technologie gebaut ist. Und das hängt damit zusammen, wer den Code schreibt und die Prozesse entwickelt und wie viele Frauen überhaupt im Bereich Künstliche Intelligenz arbeiten. Ich glaube, in der IT in Deutschland arbeiten nur 16 Prozent Frauen, das ist sehr wenig. Wir brauchen deshalb sehr viel diversere Teams mit diverseren Lebenskontexten. Wir müssen verstehen, dass wir, wenn wir intelligente Systeme trainieren, diese auch mit inklusiven und diversen Trainingsdatensätzen trainieren.

Die Serie

Zur Bundestagswahl am 26. September will die FR denjenigen Gehör verschaffen, die sich auch jenseits der Parteien engagieren: für neue Formen des Wirtschaftens, die den Planeten nicht zerstören. Für wohnliche Städte, gesunde Ernährung, umweltfreundliche Mobilität. Für mehr politische Teilhabe und Gleichberechtigung.

Diese Menschen haben den Mut , auch das zu wählen, was nicht zur Wahl steht. Oft sind es nachdenklich-leise Töne, die von den Mächtigen in Politik und Wirtschaft arrogant ignoriert und von rechtspopulistischen Lautsprechern übertönt werden.Die FR-Serie „Wir können auch anders“ soll ein Verstärker für diese inspirierenden Stimmen sein.

Auch Sie, die Leserinnen und Leser, können sich an unserer Serie beteiligen. Was wäre das erste, das die nächste Bundesregierung tun sollte? Schreiben Sie Ihre Antwort in einem bis drei Sätzen auf und schicken Sie sie an bundestagswahl21@fr.de Eine Auswahl veröffentlichen wir im Rahmen der Serie.

In der nächsten Folge geht es um Religion. Sie erscheint am Dienstag, 7. September.

Zuletzt erschienen: eine Folge der Serie zur Bildung am Dienstag, 31. August.

Alle Teile zum Nachlesen unter fr.de/bundestagswahl

Sie meinen, die Ungleichheit wurde dem Internet „antrainiert“?

Wir haben diese sogenannten Biases auch in der analogen Welt, wie das Beispiel mit den Crashtest-Dummies, das Sie genannt haben. Und diese werden dann übertragen auf technische und „intelligente Systeme“, die ja nichts anderes tun als alte Daten auszurechnen und Wahrscheinlichkeiten zu erzeugen. Wir sehen auch heute noch, das Technologien für intelligente Autos vorwiegend mit normierten Körpern trainiert werden. Ein selbstfahrendes Auto ist unter Umständen gar nicht in der Lage, einen Menschen mit Behinderung zu erkennen, weil die Datensätze, mit denen das Auto trainiert wurde, das nicht hergeben. Wir sehen das in der Medizin, zum Beispiel bei der Technik zur Erkennung von Hautkrebs. Die funktioniert besser bei weißen Menschen, weil Datensätze von überwiegend weißen Menschen für deren Entwicklung genutzt werden. Künstliche Intelligenz, die mit Datensätzen trainiert wird, die aus der Vergangenheit kommen, kann nie Zukunft vorhersagen, sondern nur Vergangenheit reproduzieren.

Hass im Netz: Künstliche Intelligenz lernt menschliche Vorurteile - das muss verhindert werden

Was muss also anders werden?

Man muss sich ganz einfach anschauen: Wer schreibt die Codes, wie sind die Teams besetzt und was ist das Big Data Gerüst, auf dessen Grundlage die Technologien lernen? Wie inklusiv, wie divers sind diese Voraussetzungen? Erst dann können wir tatsächlich überlegen, solche Technologien wir einsetzen wollen. Um zu verhindern, dass die Systeme Ungerechtigkeiten, die bereits bestehen, weiterhin strukturell festschreiben.

Was muss die künftige Bundesregierung tun, um das Internet gleichberechtigter zu machen?

Andersrum gefragt: Woran mangelt es bei dem Thema gerade? Es mangelt massiv an der Kompetenz der Entscheidungsträger:innen. Wir bekommen immer wieder den Eindruck, dass sowohl die Politik als auch die Gesellschaft diesen Technologien meist hilflos gegenüberstehen.

Hass im Netz: Politik sollte mehr feministische Technologieentwicklungen fördern

Wie kann man das ändern?

Grundsätzlich brauchen wir einen informierten Diskurs, den auch die Politik stärker betreiben muss. Wir müssen sehr viel stärker über die Diversifizierung der Gesellschaft sprechen und das geht nur über einen gerechten Zugang zum Internet, das heißt, wir müssen auch im Bereich der Bildung im Tech-Sektor mehr tun. Wir wünschen uns aber zuallererst sehr viel mehr Aufmerksamkeit für das Thema. Und zwar eine, die über die doch zumeist sehr oberflächlich geführten Diskurse hinausgeht.

Was würden Sie den Parteien also gerne in den Koalitionsvertrag schreiben?

Es braucht dringend Förderungen von Alternativprojekten, es gibt durchaus gute Open Source Software, die abgekoppelt ist vom proprietären System. Wir brauchen aber auch noch mehr feministische Technologieentwicklungen. Es gibt viele spannende Ansätze aus der Community, die Technik inklusiver und diverser zu gestalten und ich glaube dafür braucht es langfristige Förderung. (Elena Müller)

Das könnte Sie auch interessieren

Kommentare