1. Startseite
  2. Politik

„Datenschutz schützt nicht die Daten, sondern die Menschen“

Erstellt: Aktualisiert:

Von: Jana Ballweber

Kommentare

Digitale Daten wecken Begehrlichkeiten und müssen deshalb gesetzlich geschützt werden.
Digitale Daten wecken Begehrlichkeiten und müssen deshalb gesetzlich geschützt werden. © Imago / Silas Stein

Der Mathematiker und Philosoph Rainer Mühlhoff spricht im Interview über fehlgeleitete Datenschutzregulierung, Diskriminierung mit schlecht geschützten Daten und das Geschäftsmodell der Sozialen Medien.

Herr Mühlhoff, wenn ich über Datenschutz rede, löst das in meinem Bekanntenkreis zuverlässig einen Gähnreflex aus. Warum widmen Sie diesem Thema Ihre wissenschaftliche Karriere?

Das Thema Datenschutz und die neuen digitalen Technologien sind für mich eng mit der wachsenden sozialen Ungleichheit verknüpft. Wir beobachten zur Zeit ein stark wachsendes Machtgefälle zwischen Unternehmen und Menschen. Wer dabei gähnt, hat das nicht genug auf dem Schirm.

Aber können Sie verstehen, dass Menschen davon genervt sind, wenn Datenschutz vieles komplizierter macht? Denken Sie nur an die endlosen Cookie-Banner.

Natürlich sind viele genervt von Cookie-Bannern, die sind auch mir eine große Last. Sie sind aber eher ein Beispiel für schlecht gemachte, fehlgeleitete Regulierung. Ein richtiger Bärendienst für den Datenschutz, denn sie führen ja nicht einmal dazu, dass weniger Daten erhoben werden, weil die Menschen durch die Banner dazu genötigt werden, in die Datenverarbeitung einzuwilligen. Die negativen Auswirkungen, die der Datenschutz verhindert, sind aber viel größer als die Reibungspunkte, die er gelegentlich verursacht.

Haben Sie Beispiele für diese negativen Auswirkungen, vor denen uns der Datenschutz bewahrt?

Datenschutz ist eigentlich das falsche Wort. Datenschutz schützt nicht die Daten, sondern die Menschen und ihre Grundrechte. Seit wir maschinelle Datenverarbeitung haben, haben es mit einer dadurch entstehenden Machtasymmetrie zu tun. In den letzten zehn bis zwanzig Jahren beobachten wir vermehrt, dass die Daten vieler Nutzer:innen zu großen Datenbeständen, das sogenannte Big Data, zusammengeführt werden. Da geht es dann nicht mehr um die einzelnen Personen, sondern der Informationsgehalt steckt in der Summe der Daten.

Und warum ist das schlecht?

Mit einer riesigen Menge an Daten können Sie Menschen unterschiedlich behandeln, die unterschiedliche Merkmale aufweisen. Sie können Personen, die höhere Gesundheitsrisiken haben, teurere Versicherungen verkaufen als gesunden. Sie können Menschen mit maßgeschneiderter Werbung in Bezug auf ihre politischen Einstellungen manipulieren. Sie können Menschen in Gruppen sortieren und einzelne Gruppen diskriminieren. Letztendlich werden Informationen über uns ableitbar, die wir niemals preisgeben würden.

Wie funktioniert das? Wie kann ein Unternehmen mehr über mich wissen, als ich preisgeben will?

Hier wird mit lernenden Algorithmen gearbeitet. Es gibt Geschäftsmodelle, die nur darauf abzielen, so viele Daten wie möglich von so vielen Menschen wie möglich zu sammeln, zum Beispiel beim Surfen im Internet. Diese Daten nutzen die Algorithmen dann als Lerngrundlage. Wenn es zum Beispiel einen Datensatz von Menschen gibt, die Prostatakrebs haben, kann der Algorithmus erkennen, wie diese Menschen sich im Netz verhalten. Was sie googeln, welche Medikamente sie online bestellen, zum Beispiel gegen Symptome, die auf eine Krebserkrankung hindeuten könnten. Verhält sich dann ein Mensch, der nicht in diesem Datensatz vorkommt, genauso, kann der Algorithmus mit einer bestimmten Wahrscheinlichkeit vorhersagen, dass auch diese Person Prostatakrebs hat.

Wie werden diese Algorithmen in der Praxis eingesetzt?

Wenn jemand beispielsweise eine Lebensversicherung abschließen will, kann die Versicherungsgesellschaft ein Risikoscoring vornehmen …

Also eine Abschätzung, wie hoch das Risiko ist, dass die Person bald stirbt und die Versicherungssumme fällig wird …

Genau. Und dabei können sie beispielsweise mit der Telefonnummer das Konto der Person in einem sozialen Netzwerken finden und den Algorithmus anhand dieser Daten nachschauen lassen, ob die Person Prostatakrebs haben könnte. Wenn ja, wird der Risikoscore schlechter und die Versicherung teurer.

Das heißt, die Diskriminierung von Gruppen betrifft nicht nur solche Menschen, die ohnehin schon eine Eigenschaft haben, wegen der sie in unserer Gesellschaft diskriminiert werden?

Ja. Was nicht heißt, dass die schon vorhandenen Diskriminierungsformen keine Rolle mehr spielen. Big Data und Künstliche Intelligenz, wie lernende Algorithmen auch oft genannt werden, erlernen aus den Daten die vorhandenen Diskriminierungsmuster und verstärken sie dann.

Zur Person

Rainer Mühlhoff (39) ist Professor für Ethik der Künstlichen Intelligenz an der Universität Osnabrück. Zusätzlich forscht er an der FU Berlin.

Unter anderem studierte er Mathematik, Informatik, Philosophie und Gender Studies.

In seiner Forschung beschäftigt er sich unter anderem mit Datenschutz und Datenethik im Kontext von KI und Big Data. jaba

Prostatakrebs ist ja nun aber eine Krankheit, die vor allem den sprichwörtlichen „alten, weißen Mann“ betrifft.

Die Künstliche Intelligenz bleibt nicht bei bekannten Diskriminierungsmustern stehen. Sie können nach beliebigen Mustern diskriminieren, und niemand kann nachvollziehen warum. Mithilfe von Big Data lässt sich eben auch herausfinden, wer eine Disposition zu Prostatakrebs hat und das sind nun einmal vor allem ältere, weiße Männer, die in diesem Beispiel dann keine Lebensversicherung mehr bekommen könnten.

Wie kann man Menschen vor dieser Art von Diskriminierung schützen?

Um Diskriminierung durch lernende Algorithmen besser in den Griff zu bekommen, müssen Datenschutz und Antidiskriminierungsgesetzgebung Hand in Hand arbeiten. Man muss beachten, dass Algorithmen durch die Kombination verschiedener Eigenschaften und Merkmale neue Diskriminierungsmuster erzeugen können, mit denen wir nicht rechnen und die noch keinen Namen haben. Oftmals werden auf diese Weise vor allem Gruppen, die ohnehin schon benachteiligt sind, Opfer von Mehrfachdiskriminierungen, die sich gegenseitig verstärken.

Wenn es aber ein System gibt, dass mir sagen könnte, ob ich ein erhöhtes Risiko habe, eine bestimmte Krankheit zu bekommen, könnte mir das doch auch helfen. Ich könnte mehr Vorsorgeuntersuchungen machen. Das wäre doch eine sinnvolle Anwendung?

Es gibt einen Unterschied, ob Sie die Vorhersagen über eine Person mit deren Zustimmung im Behandlungszimmer einer Arztpraxis erstellen oder ob Sie sie für andere Zwecke nutzen. Natürlich gibt es positive Nutzungsweisen von Daten und von Künstlicher Intelligenz. Wann das der Fall ist und wann nicht, muss aber durch gute Regulierung klargestellt werden. Denn zu häufig kombinieren Datenunternehmen ein scheinbar nützliches und harmloses Geschäftsmodell mit einem zweiten, das schädlich ist. Google bietet einen kostenlosen E-Mail-Dienst und eine Suchmaschine an und verkauft Ihre Daten hintenrum an Versicherungen und Werbekonzerne. Damit macht das Unternehmen seinen Gewinn.

Müsste hier die Politik einschreiten, um diese Geschäfte zu verhindern?

Bei den Algorithmen, die Vorhersagen über Menschen treffen können, haben wir einen blinden Fleck aktueller Regulierung. Die Unternehmen nutzen zum Beispiel das Schlupfloch der Anonymisierung. Die Daten, aus denen Algorithmen lernen, sind oft nicht personenbezogen. Anonymisierte Daten unterliegen aber keinerlei Datenschutzbeschränkungen. Die Datenschutzgrundverordnung gilt für sie nicht. Personenbezogen sind die Daten dann erst wieder, wenn die Vorhersagemodelle zum Beispiel beim Thema Versicherungen auf einzelne Personen angewendet werden. Das ist meiner Ansicht nach aber zu spät.

Aber ist das denn wirklich so ein großes Problem, wenn die Versicherungen etwas teurer werden?

Es geht nicht bloß um Versicherungen. Es geht um die Gesellschaft und ihren Zusammenhalt. Vorhersagen werden nicht in erster Linie über Individuen gemacht, sondern über Gruppen. Wir müssen uns verabschieden von der Idee, dass eine einzelne Person ausspioniert werden soll. Es geht um Bevölkerungsmanagement. Bei Facebook haben wir das in der Vergangenheit schon beobachtet: Politische Werbung wurde auf die psychologischen Sensibilitäten der Nutzer:innen zugeschnitten, die auf diese Weise quasi manipuliert wurden. Das ist eine Gefahr für die Demokratie.

Woran liegt es, dass wir das mit der Regulierung nicht richtig hinbekommen?

Ein Verständnis für die Gefahren durch Big Data und Künstliche Intelligenz ist auf politischer Ebene noch zu wenig angekommen. Unser Datenschutzdiskurs ist stark vom Liberalismus geprägt, von der Idee, dass dem Datenschutz genüge getan ist, wenn alle einzeln Kontrolle über ihre Daten haben. Das passt der Wirtschaft gut in den Kram. Datenschutzauflagen, die auf eine Pflicht zur Einwilligung der Individuen hinauslaufen, kann die Industrie gut mittragen, weil diese Regeln ihre Geschäftsmodelle nicht in Frage stellen.

Solange wir noch individualistische Datenschutzgesetze haben: Was kann jede und jeder Einzelne tun?

Es ist wichtig, dass wir uns klar machen: Die Entscheidung, wie ich meine Daten verwende, hat Auswirkungen auf andere. Wenn ich im Cookie-Banner immer sofort auf Akzeptieren klicke, erlaubt das – mithilfe meiner Daten – den Algorithmen auch Vorhersagen über andere Menschen, die sorgsamer mit ihren Daten umgehen.

Auch interessant

Kommentare