Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für FR.de. Danach lesen Sie FR.de gratis mit Werbung.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf FR.de
  • Zum Start nur 0,99€ monatlich
  • Zugang zu allen Berichten und Artikeln
  • Ihr Beitrag für unabhängigen Journalismus
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Versuchsaufbau mit Roboter „Darias“ mit zwei Roboterarmen an der TU Darmstadt, Ziel: Unterstützung im Alltag.
+
Versuchsaufbau mit Roboter „Darias“ mit zwei Roboterarmen an der TU Darmstadt, Ziel: Unterstützung im Alltag.

Enquetekommission

Künstliche Intelligenz ohne Kontrolle?

  • vonHannes Koch
    schließen

Enquetekommission des Bundestages uneins über die Regulierung selbstlernender Maschinen.

Künstliche Intelligenz ist ein Versprechen und eine Bedrohung. Soziale Netzwerke ermöglichen es, schnell mit vielen Leuten in Kontakt zu treten. Aber wer bestimmt, welche Nachrichten die Adressatinnen und Adressaten zuerst sehen? Diese Auswahl treffen meist Algorithmen – Rechenformeln – in Computerprogrammen. Einerseits gewinnen die Nutzer Autonomie, andererseits sind sie aber auch ferngesteuert. Die zunehmend mächtigen Maschinen lenken die Wahrnehmung der Individuen, der Öffentlichkeit, der Gesellschaft. Ist es also nötig, die Betreiber der Netzwerke und ihre Programme demokratisch zu kontrollieren?

Mit diesen und verwandten Fragen beschäftigte sich während der vergangenen zwei Jahre die Enquetekommission „Künstliche Intelligenz“ des Bundestages. Am Montag dieser Woche tagte sie zum letzten Mal, am Mittwoch übergab sie ihren Bericht an Bundestagspräsident Wolfgang Schäuble. Das Gesamtdokument, das der FR vorliegt, und die ergänzenden Stellungnahmen aller Fraktionen offenbaren teilweise große Einschätzungsunterschiede.

Grundsätzlich muss man sich darauf einstellen, dass die Denkleistung von Rechnern und Maschinen zunimmt, sie mehr und mehr menschliche Tätigkeiten bewältigen und dabei auch selbst neue Problemlösungen entwickeln. Produktionsanlagen in Fabriken können sich wohl bald eigenständig reparieren, indem sie rechtzeitig Verschleißteile ordern und einbauen. Fahrerlose Vehikel wählen die Routen aus, auf denen sie die Passagiere zum Ziel bringen, intelligente Medizinsysteme nehmen den Ärtztinnen und Ärzten einen Teil der Diagnose oder Behandlungen ab.

Schon heute beeinflussen Plattformen im Internet das Informations- und Einkaufsverhalten der Nutzer massiv, indem sie diesen individuelle Konsumvorschläge machen.

Verantwortlich dafür sind sogenannte ADM-Systeme, die selbst Entscheidungen treffen („algorithmic decision making“). Darüber, wie mit diesen umzugehen sei, konnten die Mitglieder der Kommission keine Einigkeit erzielen. „Diese Systeme werden von Einzelpersonen in privaten Unternehmen mit Blick auf Gewinnmaximierung entwickelt und unterstehen kaum einer institutionalisierten, unabhängigen Kontrolle im öffentlichen Interesse“, schreiben die Grünen in ihrem Sondervotum. „Eine solche Kontrolle ist aber dringend zu empfehlen“, sagt Tabea Rößner, Kommissionsmitglied der Grünen. Sie spricht sich für „verpflichtende Register und Audits von ADM-Systemen“ aus.

Im Bericht der KI-Kommission spielt das Thema der Regulierung allerdings keine große Rolle. Grund: Die Kommissionsmehrheit, unter anderem die Union, trat auf die Bremse. „Einem pauschalen Algorithmen-TÜV stehen wir skeptisch gegenüber“, betont Ronja Kemmer (CDU).

Social-Media-Plattformen sollen zwar unter bestimmten Bedingungen „Schnittstellen öffnen“ und Einblick gewähren. „Eine neue Behörde braucht es dafür aber nicht“, so Kemmer.

Dagegen unterstützt der Bundesverband der Verbraucherzentralen die Position der Grünen: „Ein ausgewogener Regulierungsrahmen ist nötig, um Vertrauen und die Akzeptanz von Künstlicher Intelligenz zu stärken.“ Noch in diesem Jahr will EU-Kommissarin Margrethe Vestager eine Richtlinie vorlegen, die das Problem aufgreift. Möglicherweise entsteht dann mit der Zeit eine öffentliche Instanz zur Kontrolle der Algorithmen – ähnlich einer Atomaufsicht oder eines Kartellamtes. Ob das eine europäische Digitalagentur oder ein Netzwerk nationaler Behörden sein wird, ist offen.

Ebenso wenig einigen konnten sich die Parteien bei der Einstufung von Systemen der künstlichen Intelligenz. „Die Definition von Risikoklassen dient dazu, unterschiedliche Techniken im Hinblick auf potenzielle Gefahren zu klassifizieren, die eventuell von ihnen ausgehen“, erklärt Soziologe Florian Butollo, Sachverständiger der Linken in der Kommission. „Dies kann die Basis liefern, Entwicklungen mit riskanten Auswirkungen auf die Gesellschaft zu verhindern oder zu regulieren“. Als Beispiel nennt Butollo Algorithmen, die Emotionen in Gesichtern erkennen. „Eine Einteilung in Risikoklassen halten wir generell für sinnvoll“, sagt auch Grünen-Kommissionsmitglied Anna Christmann. Während die Opposition die Risikobewertung in bestimmten Fällen verpflichtend machen will, hält die Kommissionsmehrheit eine Soll-Regelung für ausreichend.

Das könnte Sie auch interessieren

Kommentare