Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für FR.de. Danach lesen Sie FR.de gratis mit Werbung.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf FR.de
  • Zum Start nur 0,99€ monatlich
  • Zugang zu allen Berichten und Artikeln
  • Ihr Beitrag für unabhängigen Journalismus
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Was kann und darf KI?
+
Was kann und darf KI?

KI

Regeln für Künstliche Intelligenz: Wer sagt, was fair ist?

Die Europäische Kommission will Künstliche Intelligenz regulieren und Diskriminierung verhindern. Aber viele Fragen sind offen. Die Kolumne „Gastwirtschaft“ von Leonie Beining.

So groß die gesellschaftlichen Chancen von Künstlicher Intelligenz (KI) auch sein mögen: Zahlreiche Beispiele führen uns regelmäßig vor Augen, wie fehleranfällig viele KI-Systeme sind und Menschen beispielsweise diskriminieren können.

Geht es nach der Europäischen Kommission, bleiben Bürger:innen der EU künftig vor solchen KI-Anwendungen verschont. Denn in ihrem im Frühjahr vorgelegten Vorschlag für eine europaweite Regulierung für KI sieht die Kommission vor, dass so genannte „Hochrisiko-KI-Systeme“, also etwa Systeme im Gesundheitssektor oder Personalmanagement, getestet und einer Prüfung unterzogen werden, bevor sie auf den Markt kommen. Der Ansatz ist begrüßenswert, denn er würde es Politik und Gesellschaft ermöglichen, aus der reaktiven Lage herauszukommen, in der sie sich im Umgang mit digitalen Technologien zu oft befinden.

Doch wie so oft steckt der Teufel im Detail. Begriffe wie Diskriminierung und Fairness müssen definiert und messbar gemacht werden, um KI darauf prüfen zu können. Wer aber kann und sollte festlegen, was fair ist? Um die Güte von KI-Systemen bestmöglich zu prüfen, braucht es zudem geeignete Testdaten. Doch welche Anforderungen sollten Testdatensätze erfüllen? Und stehen sie überhaupt in ausreichender Menge und Qualität zur Verfügung?

Darüber hinaus bilden Tests nur den Ist-Zustand ab und sind keine Garantie, dass das KI-System im Betrieb seine Leistungsfähigkeit behält. Wie genau muss eine Prüfung also durch ein kontinuierliches Monitoring von KI-Anwendungen ergänzt werden? Und was letztlich auch nicht vergessen werden darf: Nur weil ein KI-System vom technischen Standpunkt aus gesehen leistungsfähig oder fair ist, kann sein Einsatz aus gesellschaftlicher Sicht dennoch als gefährlich und ungerecht erachtet werden, wie etwa KI-gestützte Gesichtserkennung. Wie also kann sichergestellt werden, dass auch die Ziele und gesellschaftlichen Auswirkungen von KI ausreichend hinterfragt und geprüft werden?

Damit der Plan der EU-Kommission aufgeht, nur Systeme zuzulassen, die Anforderungen an zum Beispiel Fairness oder Sicherheit erfüllen, müssen diese und andere Fragen rasch beantwortet werden. Sonst riskieren wir, dass er ins Leere läuft und die Gesellschaft in Europa als Testfeld für KI-Anwendungen herhalten muss.

Die Autorin ist Projektleiterin bei der Stiftung Neue Verantwortung für das Projekt „ExamAI – KI-Testing und Auditing“

Das könnte Sie auch interessieren

Mehr zum Thema

Kommentare