+
Nutzer von Gesundheits-Apps müssen anders informiert werden als Bürger, in deren Wohngegend vorhersagende Polizeiarbeit stattfindet.

Künstliche Intelligenz

Vertrauen in Algorithmen?

Die Akzeptanz von automatisierten Systemen wird stark davon abhängen, ob man sie den Menschen verständlich machen kann.

Es steht viel auf dem Spiel, wenn etwa im Gesundheitssektor, im Personalwesen oder bei der Polizeiarbeit algorithmische Systeme Entscheidungen über Menschen oder das gesellschaftliche Zusammenleben fällen. So ist es nicht verwunderlich, dass eine Debatte entbrannt ist, wie man die Transparenz und Nachvollziehbarkeit dieser Systeme sicherstellen kann, um so für mehr Kontrolle und Vertrauen zu sorgen.

Ein grundlegender Schritt wäre: Menschen müssen erkennen können, wann und wie sie von automatisierten Entscheidungen betroffen sind. Doch wie sollte über den Einsatz von künstlicher Intelligenz informiert werden? Welche Informationen sind wichtig? Welche Formate braucht es, um Informationen wirksam darzustellen und Betroffenen Interventionsmöglichkeiten zu geben?

Unsere tägliche Kolumne von Gastautorinnen und Gastautoren im Wirtschaftsteil. Heute: Leonie Beining, Projektleiterin im Projekt „Algorithmen fürs Gemeinwohl“ der Stiftung Neue Verantwortung.

Es ist kompliziert: Mit unverständlichen Datenschutzerklärungen und unzulässigen Cookie-Walls kennen wir genug abschreckende Beispiele für angebliche Transparenz aus der digitalen Welt. Die Erfahrung zeigt, dass zu viele Informationen nicht weiterhelfen und weggeklickt werden. Ein schön designtes Icon, das eine algorithmische Entscheidung signalisiert, wird der Sache ebenfalls nicht gerecht. Es ist jedoch auch umstritten, ob Information über die eingesetzte Technologie per se für mehr Vertrauen sorgt. Vertrauen wiederum ist sowieso nur in Maßen gut, zu viel davon versperrt den kritischen Blick. Zweifellos wird es auch keine One-size-fits-all-Lösung geben. Denn Nutzer von Gesundheits-Apps müssen anders informiert werden als Bürger, in deren Wohngegend vorhersagende Polizeiarbeit stattfindet.

Wichtig ist bei allem: Information, so aussagekräftig sie sein mag, darf kein Feigenblatt sein, hinter dem Verantwortung komplett auf den Einzelnen abgewälzt wird. Und umfangreiche Kennzeichnung und Information bedeutet nicht automatisch, dass die Verwendung eines automatisierten Entscheidungssystems stets gerechtfertigt ist.

Die Akzeptanz von automatisierten Systemen wird trotz allem stark davon abhängen, ob man sie den Menschen verständlich machen kann. Je größer der Anwendungsbereich von Algorithmen wird, desto mehr wird es auch eine Frage von Gerechtigkeit, dass jeder verstehen kann, wann und wie ein Algorithmus das eigene Leben beeinflusst.

Das könnte Sie auch interessieren

Kommentare