„Viele Menschen haben immer noch diese Horrorvorstellung von der bösen KI, die sich verselbstständigt und die Kontrolle übernimmt.“
+
„Viele Menschen haben immer noch diese Horrorvorstellung von der bösen KI, die sich verselbstständigt und die Kontrolle übernimmt.“

Künstliche Intelligenz

„Viele haben immer noch die Horrorvorstellung vom Terminator, von der bösen KI“

  • Boris Halva
    vonBoris Halva
    schließen

Ganz gleich, wie intelligent Maschinen sind – der Mensch hat die Macht. Ein Gespräch mit dem Physiker Jörg Dräger über die alte Angst vorm Terminator und das künftige Miteinander menschlicher und Künstlicher Intelligenz.

Drumherum ist einiges los, es läuft Musik, lebhafte Gespräche an den Tischen ringsum. Jörg Dräger blickt etwas besorgt zum Aufnahmegerät, das auf dem Tisch liegt: „Die Maschine ist sensitiv genug und hört uns auch?“ Eigentlich müsste er ja wissen, wie gut Maschinen hören – immerhin befasst er sich seit Jahren mit Künstlicher Intelligenz und der Frage, ob unsere Angst vor den Maschinen eigentlich berechtigt ist. In seinem Buch „Wir und die intelligenten Maschinen“, das Dräger mit Ralph Müller-Eiselt geschrieben hat, dreht sich alles um die Frage: Wie garantieren wir, dass die intelligenten Maschinen den Menschen dienen – und nicht umgekehrt?

Herr Dräger, manche sagen, der Begriff „Künstliche Intelligenz“ (KI) führe in die falsche Richtung und dass es besser wäre, von „Künstlicher Kognition“ zu sprechen. Was ist Ihr Verständnis von Künstlicher Intelligenz?
Ich finde den Begriff Künstliche Intelligenz ebenfalls problematisch, weil er suggeriert, dass diese maschinelle Intelligenz uns ersetzt – so wie ein künstliches Hüftgelenk unser natürliches Hüftgelenk ersetzt. Ich selbst favorisiere den Begriff „erweiterte Intelligenz“, weil es genau darum geht: Es gibt manches, für das wir Menschen nicht gebaut sind, etwa die Analyse riesiger Datenmengen. Das kann uns die Maschine abnehmen. Aber sie kann uns eben nicht abnehmen, ethische Ziele zu setzen, zu plausibilisieren und zu kontrollieren. Das sind menschliche Eigenschaften – und das werden auch im KI-Zeitalter menschliche Eigenschaften bleiben.

Weil die Maschinen dafür eben doch nicht intelligent genug sind?
Zumindest, was die Breite der Anwendung angeht. Ein Schachcomputer, der auf acht mal acht Feldern nahezu unschlagbar ist, wäre bei neun mal neun Feldern erst einmal aufgeschmissen. Schon da ist das Übertragungswissen kaum vorhanden. Und wenn ich einen Schachcomputer bitte, Bilder zu erkennen, dann würde er kläglich scheitern. Wir Menschen können Gelerntes auf etwas anderes übertragen – auch das ist Teil unserer Intelligenz im menschlichen Sinne. Insofern will ich zur Demystifizierung der Künstlichen Intelligenz beitragen: KI ist nur ein Werkzeug! Der Bauer, der nicht dem Pflug hinterlaufen will, setzt sich auf den Traktor. Und der Mensch, der nicht Millionen von Daten abgleichen will, sucht sich eben eine KI, die das für ihn übernimmt. Wir müssen uns an die Normalität eines Hilfsmittels für unsere Kognition gewöhnen, wir dürfen nicht gleich beleidigt sein, wenn eine Maschine etwas besser kann als wir.

Künstliche Intelligenz: „Rechenmaschine nicht als Beleidigung unseres Gehirns verstehen“

Dieses Beleidigt-Sein schimmert in der Diskussion um das Potenzial der KI immer wieder durch, nicht nur, wenn ein Computer einen Schachmeister besiegt… der Mensch möchte sein Monopol der Intelligenz ungern aufgeben.
Es gab eine Zeit, in der galt: Je stärker ich war, umso produktiver und wohlhabender war ich. Wir empfinden die muskel-ersetzende Maschine trotzdem nicht als Beleidigung unserer Physis. Menschen nutzen Kräne zum Heben und fahren Autos zur Fortbewegung. Deswegen sollten wir eine Rechenmaschine auch nicht als Beleidigung unseres Gehirns verstehen. Uns Menschen zeichnet aus, dass wir ethische Bewertungen abgeben können, dass wir Bindungen aufbauen und Ziele setzen können. Und da greift uns die Maschine gar nicht an, das kann sie überhaupt nicht.

Jörg Dräger.

Um jetzt mal die Sorge vieler Menschen anzuführen: Wo greift sie uns denn an?
In den sich wiederholenden, manchmal auch stumpfen Tätigkeiten wie Röntgenbilder analysieren, Rechenoperationen ausführen, Bewerbungen vorsortieren …

…Bewerbungsverfahren würde ich jetzt nicht als stumpfe Tätigkeiten bezeichnen…
Hunderte Bewerbungen nach bestimmten Kriterien durchzusehen, das ist repetitiv, das können Maschinen besser, also sollen sie doch die Vorauswahl treffen. Erfahrene Personaler sind unverzichtbar. Sie kennen das eigene Unternehmen und wissen, wer am besten ins Team passt. Er oder sie sollte möglichst viel Zeit darauf verwenden können, genau diese fachliche und menschliche Einschätzung zu den geeignetsten Bewerberinnen und Bewerbern abgeben zu können. Zumal es inzwischen ausgefeilte Programme gibt, Stärken bei Bewerbern zu erkennen, die wir so nicht bemerken würden, weil sie weder im Gespräch durchscheinen noch im Hochschulzeugnis stehen. Widerstandfähigkeit, Lernfähigkeit, Fehlertoleranz. Die Algorithmen ergänzen den Blick auf den Bewerber und geben den Personalern idealerweise die Zeit, zwei Stunden mit Bewerbern zu reden und nicht bloß zehn Minuten. KI gibt uns im Idealfall Zeit fürs Wesentliche, also für Dinge, die nur wir Menschen können. Maschine und Mensch gegeneinander auszuspielen ist unsinnig, es geht darum Mensch mit Maschine gemeinsam wirken zu lassen. Viele Menschen haben immer noch diese Horrorvorstellung vom Terminator, von der bösen KI, die sich verselbstständigt und die Kontrolle übernimmt. Aber im Grunde sind es nur Rechenmaschinen, die in unserem Auftrag bestimmte Dinge erledigen.

„Künstliche Intelligenz gibt uns im Idealfall Zeit fürs Wesentliche“

Sie sagen, Maschinen können Stärken rausfiltern, die der Mensch nicht erkennt. Nun können sie aber auch Schwächen erkennen, die dem Menschen nicht auffallen. Und damit sind wir mittendrin in der ethischen Diskussion, etwa über Social scoring in China…
Da stellt sich mir die Frage, ist das Problem bei diesem Social scoring in China wirklich die Maschine – oder nicht eher das politische System? Zumal es auch Beispiele aus Deutschland für Scorings gibt: Krankenkassen könnten Patienten aufgrund ihrer Daten durchleuchten und ihnen einen auf ihre Person zugeschnittenen, individuellen Tarif anbieten.

Nun ist hierzulande aber politisch beschlossen, dass gesetzliche Krankenkassen den Einheitstarif für alle haben.
Und das ist auch richtig so. Denn das Solidaritätsprinzip ist uns als Gesellschaft wichtig. Ich sage: Gut, dass ich in einem Land lebe, in dem das so ist. Wir haben also die politische Entscheidung getroffen, dass die analysierende Maschine im solidarischen Gesundheitswesen nicht zum Einsatz kommt. Es wäre technisch möglich, aber politisch nicht gewollt. Das Problem hinter den Algorithmen ist also der jeweilige politische Wille. Ist das Ziel eines Algorithmus Effizienz, kann es zu weniger Solidarität führen. Streben wir Sicherheit an, kann das auf Kosten der Freiheit gehen.

Sollten wir uns gerade deswegen nicht vom technisch Möglichen, sondern vom gesellschaftlich Gewollten leiten lassen?
Ganz eindeutig ja. Dafür brauchen wir aber auch ein gesellschaftliches Selbstbewusstsein, uns muss klar sein: Wir bestimmen als Gesellschaft politisch über den Einsatz von KI – und nicht die Technologiekonzerne, weil irgendwas möglich geworden ist. Diese Hoheit der Politik funktioniert aber nur, wenn wir dafür kämpfen.

Künstliche Intelligenz: „Die Gesellschaft übersieht die Chancen“

Es scheint aber so, als wäre das technisch Mögliche der Treiber.
In Teilen leider ja, weil wir als Gesellschaft unsere Gestaltungsmöglichkeiten viel zu wenig nutzen. Es ist ja nicht so, dass es in der analogen Welt keine Probleme gibt: Rassismus, Diskriminierung, Ungerechtigkeit, das kommt ja nicht erst durch die Digitalisierung. Aber genau diese Probleme können wir mit KI zumindest lindern. Im Moment lassen uns aber als Gesellschaft regelrecht treiben und verwechseln den Konsum digitaler Angebote mit einer kompetenten Nutzung von Digitalisierung. Wir sollten nicht über die negativen Effekte von Digitalisierung lamentieren, sondern den Spieß umdrehen und klären, welche gesellschaftlichen Probleme wir mit der neuen Technik lösen wollen.

Haben Sie Vorschläge?
Wir sind uns doch einig: Der Arbeitsmarkt ist nicht diskriminierungsfrei, Frauen sind benachteiligt. Dabei gibt es automatisierte Bewerbertests, die versuchen, diesen Gender-Bias wenigstens abzumildern; die herausfinden sollen, welche typisch männlichen Muster an Führungskompetenzen in Eignungstests abgefragt werden, weswegen Frauen nicht zum Zug kommen. Diese Programme erzielen durchaus Erfolge! Mir scheint: Wirtschaft sieht gerne die Chancen der KI und übersieht dabei manche Risiken, während die Gesellschaft nur die Risiken sieht und die Chancen übersieht. Dabei gibt es längst Technologien, die uns helfen können!

Meinen Sie das, wenn Sie von einem positiven Blick auf die Technologie sprechen?
Es ist ein Appell an das, was möglich wäre. In unserem Buch haben wir 40 Fallbeispiele für den Einsatz von Algorithmen zusammengetragen, die wir einmal in eine positive und einmal in eine negative Richtung drehen. Wir zeigen, dass der Algorithmus selbst weder gut noch böse ist, den kann ich einsetzen in einem aus Bürgersicht vernünftigen, akzeptablen Sinne, und ich kann ihn aber auch einsetzen in einem Sinne, dass die Menschen sagen: „Nein, so akzeptieren wir das nicht.“ Das soll das Buch leisten: Die Dinge, die zu einem Nein führen, offenzulegen. Ich ärgere mich zum Beispiel darüber, dass manche Datingplattformen einem Mann gleich- oder niedriger qualifizierte Frauen, einer Frau aber gleich- oder höher qualifizierte Männer anbieten.

Zur Person
Jörg Dräger,
Jahrgang 1968, studierte zunächst Physik und Betriebswirtschaftslehre an der Universität Hamburg. Nach Tätigkeiten als Unternehmensberater und Geschäftsführer des Northern Institute of Technology, einer international-orientierten privaten Hochschulinstitution, war er von 2001 bis 2008 parteiloser Senator für Wissenschaft und Forschung der Freien und Hansestadt Hamburg, Mitglied der Kultusministerkonferenz und stellvertretendes Mitglied des Bundesrates. In den Jahren 2004 bis 2006 hatte er zudem das Amt als Senator für Gesundheit und Verbraucherschutz inne. Seit 2008 ist Dräger Vorstandsmitglied der Bertelsmann Stiftung und verantwortet die Bereiche Bildung und Integration. Zudem lehrt Dräger Public Management an der Hertie School of Governance.

Da hat der Algorithmus offenbar was übernommen, was Menschen auch so machen.
Klar, der Algorithmus übernimmt da eine gesellschaftliche Realität. Ich möchte aber trotzdem die Frage diskutieren können, ob nicht ein solcher Algorithmus solche gesellschaftlichen Muster durchbrechen sollte, anstatt in denselben alten Schubladen zu denken wie der Mensch. Zum Beispiel hat sich in den USA gezeigt, dass die über Online-Partnervermittlungen gebildeten Partnerschaften – was den kulturellen und sozialen Hintergrund betrifft – tatsächlich gemischter sind als bisher auf analogem Wege geschlossene Partnerschaften. Algorithmen haben dort also für mehr Vielfalt gesorgt. Und diese Beziehungen halten sogar länger. Technologie kann also in diesem Sinne eine durchmischtere Gesellschaft erschaffen. Umso mehr ärgert es mich, wenn soziale oder bildungsbezogene Muster verstetigt werden, indem Männer nicht mit höherqualifizierten Frauen in Kontakt gebracht werden.

Künstliche Intelligenz: „Wir brauchen Kompetenz und Transparenz“

Wie ließe sich das lösen?
Mit Transparenz. Ich möchte solche Kriterien transparent haben, so dass die Menschen darüber diskutieren und sich bewusst ein Bild machen können. Wenn sich genügend darüber aufregen und sagen, das ist nicht okay, werden sie zu einer Plattform gehen, die das anders macht. Aber so lange der Algorithmus mit seiner Wirklogik im Verborgenen bleibt, kriegt das niemand mit – und kann sich auch nicht aufregen. Und wenn ich mich nicht aufregen kann, kann ich auch keine anderslautende Entscheidung treffen, dass ich jetzt sage: die Plattform war’s nicht, ich nehme eine andere. Und das meine ich, wenn ich sage: wir brauchen Kompetenz und Transparenz. Wir müssen verstehen können, was vor sich geht.

Während Sie für eine intensivere Auseinandersetzung mit neuen Technologien und KI plädieren, fordert der Autor Jan Heidtmann, das Internet müsse abgeschaltet werden, weil es den Menschen so viel Zeit stehle.
Das ist keine einfache Diskussion. Denn wenn Algorithmen Sucht erzeugen, müssten wir sagen: Stopp! Es ist aber auch Teil unserer persönlichen Freiheit, Zeit zu verdaddeln. So wie früher durch Wolkengucken, Fernsehschauen oder Zeitunglesen, so machen wir das heute mit Social Media. Das sollte man in einer freiheitlichen Gesellschaft nicht verbieten. Aber klar, PC-Hersteller und Spieleentwickler sorgen dafür, dass die Menschen möglichst viel spielen und sich möglichst viel kaufen. Und versuchen, so etwas wie ein Suchtverhalten zu erzeugen. Zu einer guten digitalen Bildung gehört deswegen auch zu lernen, wann man den PC oder das Smartphone ausschalten sollte.

Manche Portale verteilen Sternchen, wenn man dort spielt, die einem aber wieder weggenommen werden, wenn man sich ein paar Tage nicht einloggt…
Das ist durchaus problematisch für Kinder. Aber dann kommen ähnliche Algorithmen bei Lernsoftware zum Einsatz. Das ist die gleiche Logik: Mit Badges und Sternchen animiere ich zum Weitermachen. Und ähnlich wie beim Computerspiel gilt: Wenn ich hundertmal scheitere, wird’s frustrierend. Wenn ich aber dreimal scheitere und dann weiterkomme, dann bringt es richtig Spaß. Insofern: Die Logik, die Computerhersteller anwenden, um dieses suchtähnliche Verhalten zu erzeugen, die würden wir beim Lernen als Flow bezeichnen und sagen: Was Besseres kann es gar nicht geben!

Diskussion über Algorithmen: „Es geht darum, Grenzen zu ziehen“

Zwischen Sucht und Antrieb liegt also ein schmaler Grat.
Und dieses Dilemma zeigt, dass es wir als Gesellschaft sind, die diese Entscheidungen treffen müssen! Wir müssen die Grenze ziehen! Das kann kein Computer, und das ist auch nichts, was wir einem Softwarehersteller überlassen dürfen. Ich will öffentlich diskutieren, bis zu welchem Punkt ist es Freizeit und ab wann ist es Sucht? Dafür brauche ich aber Kompetenz, als Politik und als Verwaltung. Wenn im Parlament über Drogen-Abhängigkeit geredet wird, dann wird das Know-How von Medizinern herangezogen, und dann hört Politik zu und zieht Grenzen. In der Konsequenz wird Marihuana dann legalisiert oder eben nicht. Das ist eine politische Diskussion mit fachlicher Basis. Und dann schaue ich mir die Entwicklung ein paar Jahre später an und sehe, was geklappt hat und was nicht. Auch in der Diskussion über Algorithmen geht es jetzt darum, Grenzen zu ziehen.

Die virtuelle Welt ist in ihrer rasanten Entwicklung der gesellschaftlichen Diskussion doch immer um Längen voraus.
Ja, und das liegt aber nicht nur daran, dass wir nicht genügend Kontrollmechanismen haben, sondern es fehlt auch Kompetenz. Da geht es um Fragen wie: Brauchen wir einen Algorithmen-TÜV? Gibt es Strukturen, die wir aus der analogen Welt auf diese digitalen Herausforderungen übertragen können?

Also Beipackzettel für digitale Produkte?
Mehr als das, denn wir müssen nicht nur wissen, wie wir etwas anwenden, sondern auch, wie wir es selber gestalten. Hätten Sie vor ein paar hundert Jahren jemandem gesagt, dass es gut wäre, wenn alle Menschen in Deutschland lesen und schreiben können, hätten Ihnen die Geistlichen damals erzählt: Quatsch, es reicht, wenn ein paar Leute das beherrschen. In Zukunft müssen alle Menschen algorithmisch kompetent sein, auch wenn noch manche sagen, es reicht, wenn ein paar Leute programmieren können. Klar, wir müssen nicht alle programmieren können, wir sind ja auch nicht alle Schriftsteller geworden, aber trotzdem beherrschen wir alle die Schrift. Und genauso müssen wir die algorithmischen Grundkenntnisse in der Schule vermitteln, es muss selbstverständlich werden, dass wir das alle beherrschen. Und zuletzt hat eine Studie gezeigt, dass ausgerechnet deutsche Schüler schlecht abschneiden, was dieses sogenannte computational thinking angeht.

Digitalpakt: „Technik alleine löst keine Bildungsprobleme“

Sollten wir nicht, bevor wir im Zuge des Digitalpaktes die Schulen technisch aufrüsten, den Kindern Menschen zur Seite stellen, die sie beim digitalen Lernen kompetent begleiten? Stichwort: Lehrermangel.
Technik alleine löst keine Bildungsprobleme. Die größte Verschwendung wäre es, irgendwelche Endgeräte in die Klassen zu stellen und zu hoffen, dass sich dadurch irgendwas verändert. Es gilt: Pädagogik geht vor Technik! Wir brauchen vornehmlich gute Lehrerinnen und Lehrer! Sie müssen Lernbegleiter sein, die in der Lage sind, Kinder in diese Welt zu führen, ihnen Reflektion und kritisches Denken beizubringen, ihnen zu zeigen, wie sie zusammen arbeiten können. Denn die Probleme unserer Zeit sind viel zu komplex, als dass wir sie alleine lösen könnten. Für diese Aufgaben brauchen wir Lehrer, keine Endgeräte.

Jörg Dräger/ Ralph Müller-Eiselt: Wir und die intelligenten Maschinen – Wie Algorithmen unser Leben bestimmen und wir sie für uns nutzen können, DVA, Hardcover, 272 Seiten, 20 Euro

Im Moment wird sich doch eher um die Endgeräte gekümmert…
Das ist ja auch unser großes Thema als Bertelsmann Stiftung. Eine zeitgemäße Pädagogik mit individueller Förderung ist entscheidend. Dafür brauche ich digitale Hilfsmittel. Ohne die Schulen ans Netz anzuschließen, kann ich die aber nicht nutzen. Wenn ich mir anschaue, dass nur ein Drittel der deutschen Berufsschulen ans schnelle Internet angeschlossen ist, dann ist das verantwortungslos. Das hieße ja: Die Zukunft der beruflichen Bildung findet ohne Digitalisierung statt! Die Zahl ist zwei Jahre alt, selbst wenn sie sich ein bisschen verbessert hat, zeigt sie, wie weit wir von der Zukunft entfernt sind.

Künstliche Intelligenz „Die Debatte konstruktiv angehen“

Um nochmal auf den Anfang zurückzukommen: Sie sagen, wir müssen die Angst vor den Maschinen in Respekt und Verständnis umwandeln – wie könnte das funktionieren?
Es bringt nichts, Digitalisierung zu verherrlichen, es bringt aber auch nichts, nur Dystopien zu zeichnen. Die Wahrheit liegt in der Mitte. Das Wichtigste an dieser Debatte ist, Ross und Reiter auseinander zu halten. Wir Menschen halten die Zügel in der Hand. So lange aber in der Gesellschaft das Gefühl vorherrscht, die Maschine bestimmt über uns, sie erledigt unsere Aufgaben und nimmt uns irgendwann den Job weg, bleibt die Angst. Dieses Gefühl müssen wir adressieren und die Debatte konstruktiv drehen. Wir Menschen wollen nicht, dass Maschinen über uns bestimmen. Es geht darum, dass der Mensch mit der Maschine etwas gestaltet. Es geht um ein Miteinander von Mensch und Technik.

Etwa so, wie ich zum Taschenrechner greife, wenn ich eine Aufgabe nicht im Kopf lösen kann?
Ja, und wenn mein Orientierungssinn nicht so gut ist, vertraue ich mich dem Navi an. Ich frage die Maschine, wo geht’s lang – und dann entscheide ich, ob ich deren Rat folge oder einen anderen Weg nehme. Die Maschine ist ein Helfer. Und dieses Bild müssen wir erschaffen.

Interview: Boris Halva

Kann man künstlicher Intelligenz Moral beibringen? Ein Interview mit dem Forscher Kristian Kersting über das Problem, dass Maschinen nicht die Stereotype der Menschen übernehmen.

Professor Tilman Santarius spricht im Interview über das Internet als Stromfresser und darüber, warum der Hype um autonome Autos eigentlich schon wieder vorbei ist.

In einigen Bereichen kan KI zum Problem werden. Denn auch Künstliche Intelligenz kann rassistisch sein.

Kommentare