Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für FR.de. Danach lesen Sie FR.de gratis mit Werbung.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf FR.de
  • Zum Start nur 0,99€ monatlich
  • Zugang zu allen Berichten und Artikeln
  • Ihr Beitrag für unabhängigen Journalismus
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Minimalistische Grafik eines Menschen, ein Symbolbild für Künstliche Intelligenz.
+
Wie kann Künstliche Intelligenz mehr Teilhabe ermöglichen?

Künstliche Intelligenz

KI-Experte Jörg Dräger: „Das Handy gehört in der Schule auf den Tisch“

  • Boris Halva
    VonBoris Halva
    schließen

Ein Gespräch mit dem Digitalisierungs-Experten Jörg Dräger über die Frage, wie Künstliche Intelligenz mehr Teilhabe ermöglichen könnte – und warum die Politik es bisher nicht geschafft hat, dass die Menschen Vertrauen in die Technik gewinnen

  • Eine Studie der Bertelsmann-Stiftung stellt fest, dass sich Berichterstattung zu Künstlicher Intelligenz fast nur um neue Produkte dreht.
  • Laut Digitalisierungsexperte Jörg Dräger können KI, Algorithmen und Co aber auch zur politischen Teilhabe beitragen.
  • Dräger plädiert für mehr Medienkompetenz und digitale Bildung bei Schulkindern.

Herr Dräger, die Bertelsmann-Stiftung hat eine Studie veröffentlicht, die sich mit der Berichterstattung über Künstliche Intelligenz befasst. Darin wird deutlich, dass viel häufiger über technische Neuerungen oder die Umsätze der IT-Unternehmen berichtet wird als etwa über ethische Fragen oder die Auswirkungen des digitalen Fortschritts auf das Zusammenleben der Menschen. Wie kommt das?

Es ist tatsächlich sehr auffällig, dass wirtschaftliche Akteure und Themen sowie Artikel über technologische Innovationen die Berichterstattung dominieren. Aufgrund dieser Dominanz ist es eher ein positiver, weniger kritischer Diskurs, weil er sich vor allem um Effizienzsteigerung oder eben um spannende, neue Gadgets dreht, die durch Künstliche Intelligenz ermöglicht werden. Im Verhältnis dazu reflektiert der mediale Diskurs weniger über Chancen und Risiken, die mit KI für Gesellschaft und Politik einhergehen. Das liegt – zumindest nach unserer Analyse – aber zu einem nicht geringen Teil daran, dass eben diese Themen, an die man auch mal kritischer rangehen könnte, zu selten auftauchen.

Welche Zukunftschancen stehen bei Digitalisierung im Vordergrund?

Warum tauchen diese Themen nicht auf?

Jedes Unternehmen, das etwas Neues entwickelt hat, macht eine Roadshow und bringt die Innovation unter die Leute. Aber für die gesellschaftlichen und politischen Themen gibt es keine Roadshows. Die Politik sagt nicht: Wir haben hier eine tolle Applikation, die wird das Leben vieler Menschen besser machen. Und weil Medien nun mal nach Themen schauen, die neu und spannend sind, geht so was unter. Während die Wirtschaft viel Geld in Öffentlichkeitsarbeit steckt, haben Akteure, die sich mit gesellschaftlichen Fragen der Digitalisierung beschäftigen, nicht die nötigen Ressourcen, um auf ihre Themen aufmerksam zu machen. Es geht aber hier ebenso um eine Holschuld: Auch wenn Politik und Zivilgesellschaft weniger attraktive Anlässe bieten, müssten Medien diese Themen trotzdem stärker in den Blick nehmen.

Medien berichten beim Thema Digitalisierung vor allem über neue Produkte.

Was die kritische Auseinandersetzung angeht, habe ich eine andere Wahrnehmung: Abgesehen vom Wirbel um die Corona-App deuten doch Zivilgesellschaft und auch die Medien immer wieder auf die wunden Punkte des digitalen Fortschritts und dessen Einfluss auf unser alltägliches Leben hin.

Wenn man sich die Ergebnisse der Studie genauer anschaut, sieht man, dass bestimmte gesellschaftliche Themen recht viel Aufmerksamkeit erhalten, während andere fast gar keine Rolle spielen. Es wird – durchaus zurecht – beispielsweise viel über soziale Medien und über Alltagsassistenzsysteme berichtet. Hier gibt es zwar kritische Auseinandersetzungen mit den Risiken der sozialen Medien – aber vor allem ist es doch immer erstmal cool, was man damit machen kann: mein Gesicht in jung darstellen, mich in eine virtuelle Welt beamen, Teil eines Films werden. Und da wird dann vielleicht mal kritisch angemerkt: Wir sollten aufpassen, dass das nicht über einen russischen Server läuft. Aber es gibt wenig Diskussion darüber, wie der Staat Algorithmen einsetzt – wie sie in der Bildung, in der Gesundheit, in der Justiz in Deutschland genutzt werden. Dabei gibt es viele Anwendungen, die unser Leben in Bereichen einfacher machen, die nicht ausschließlich gewinnorientiert sind und in denen Teilhabe gefördert werden kann.

Zum Beispiel?

Insbesondere der Einsatz algorithmischer Systeme durch den Staat besitzt große Potenziale, um konkrete Probleme unseres Zusammenlebens zu lösen. Das ist vor allem in solchen öffentlichen Bereichen zu beobachten, in denen es eine Knappheit von wichtigen Ressourcen gibt. Nehmen wir Kitaplätze. Da gibt es jetzt erste Versuche, mithilfe von Algorithmen diese Plätze effizient und vor allem sozial gerecht zu verteilen. So, dass nicht nur die Eltern, die geschickt mit der Kita reden, einen Platz für ihr Kind bekommen. Aber eben auch so, dass keine Plätze ungenutzt bleiben. Diese Chance für mehr Teilhabe durch Digitalisierung wird im politischen Diskurs zu wenig behandelt – und folglich auch im medialen Diskurs zu wenig abgebildet.

Aber der fehlende politische Diskurs kann nicht der Hauptgrund sein für den „Mangel an Vielfalt in der Berichterstattung“, den die Studie herausarbeitet.

Natürlich nicht, es liegt auch daran, dass die Diskussion um digitalen Fortschritt – auch in den Redaktionen – eine Diskussion ist, die vor allem die Digitalexpertinnen und -experten untereinander führen. Viele bewegen sich hier noch zu sehr in einer Blase. Wenn wir aber die Digitalisierung nutzen wollen, um Teilhabe und Chancengerechtigkeit zu fördern, muss die Diskussion von allen Branchen, Fachverbänden, politischen Akteuren und Redaktionen geführt werden. Wir müssen nicht nur den medialen Diskurs, sondern vor allem den politischen Diskurs aus der Blase der Digitalakteure holen. Alle Ministerinnen und Minister müssen die Normalität dieser neuen Digitalität anerkennen. Auch ein Sozialministerium sollte in der Lage sein, reflektiert die Chancen und Risiken eines KI-Einsatzes in der Jugendhilfe zu erörtern. Es muss zum Kompetenzspektrum des politischen Handelns und der Kommunikation darüber gehören, mit der Materie KI umzugehen. Eine der üblichen Forderungen ist ja, dass Bürgerinnen und Bürger kompetenter im Umgang mit KI werden müssen.

Jörg Dräger, Mitglied des Vorstandes der Bertelsmann Stiftung.

Und was ist mit Verwaltung und Politik?

Das ist der Punkt: Wer in einem Wirtschaftsunternehmen eine führende Position hat und nicht in der Lage ist, kompetent über KI und Algorithmen zu reden, war die längste Zeit in dieser Position. Auch in der Politik sollte ich als Fachminister nicht damit durchkommen können, einfach zu sagen: Da gibt es irgendwas Neues.

Heißt also: Dass politische Entscheidungen bezüglich Digitalisierung nur noch jemand treffen dürfen sollte, der oder die auch wirklich kompetent ist?

Ja. Digitalität ist Normalität. Es ist Teil des Tagesgeschäftes, sich mit KI und Digitalisierung auseinanderzusetzen. Und dann sollte es doch auch Teil des Tagesgeschäftes sein, darüber einen politischen Diskurs führen zu können, damit die Menschen im Land Vertrauen gewinnen. Intelligente Apps könnten uns helfen, besser mit der Corona-Pandemie umzugehen.

Zur Person

Jörg Dräger, Jahrgang 1968, studierte Physik und Betriebswirtschaftslehre. Er war von 2001 bis 2008 Senator für Wissenschaft und Forschung in Hamburg und Mitglied der Kultusministerkonferenz. Seit 2008 ist Dräger Vorstandsmitglied der Bertelsmann Stiftung und verantwortet die Bereiche Bildung und Integration.

Link zur Studie: www.bertelsmann-stiftung.de, Stichwort: Medialer Diskurs über Algorithmen mit blinden Flecken beim Gemeinwohl

Dafür braucht es ein ausreichend großes Vertrauen in den Mehrwert der Nutzung.

Aber wenn man nicht darüber redet, das nicht reflektiert und die Chancen und Risiken abwägt, kann kein Vertrauen in der Bevölkerung wachsen! Wir haben vor ein paar Jahren eine Umfrage zur Einstellung der Deutschen zu Algorithmen und KI gemacht. Dabei hat sich gezeigt, dass die Menschen sehr wenig über den Einsatz von Algorithmen wissen und zugleich ein großes Unbehagen verspüren, wenn Maschinen über sie entscheiden. Vier von fünf Bürgern ziehen menschliche Entscheidungen den automatisierten vor. Das zeigt, dass die Menschen sich der Chancen der Technologie nicht bewusst sind und dass wir noch weit davon entfernt sind, eine reflektierte Diskussion über dieses Thema führen zu können. So, wie wir übrigens auch in Hinblick auf Schule und moderne Pädagogik noch weit davon entfernt sind, eine reflektierte Diskussion über die Chancen digitalen Lernens zu führen.

MAG_Kuenstliche_Intelligenz_04.jpg

Warum das?

Wenn Sie einem Kind ein Smartphone in die Hand geben, dann ist dieses Smartphone in der Hand Chance und Risiko zugleich. Chance, weil ich damit lernen und mir Informationen besorgen kann; Risiko, weil ich damit spielen oder mich stundenlang von einem Video zum nächsten treiben lassen kann. Der unbegleitete Umgang mit Smartphones führt eher zu Ablenkung. Deswegen müssen Kinder die Medienkompetenz vermittelt bekommen, mit dieser Verlockung und der Chance gleichermaßen umzugehen. Damit können wir aber die Eltern nicht allein lassen. Insofern muss Schule sich dieser Aufgabe annehmen und Kindern in dieser Lebensrealität Hilfe und Unterstützung geben, damit umzugehen. Also sage ich: Das Handy gehört in der Schule auf den Tisch!

Damit es nicht heimlich unter dem Tisch benutzt wird?

Nein, damit Schule sich damit auseinandersetzt. Damit Lehrerinnen und Lehrer sagen können, wie es die Kinder sinnvoll einsetzen können. Und damit sie ihnen auch beibringen, wann man es abschaltet. Wir brauchen in der Schule eine aktive Auseinandersetzung mit dem Smartphone, das jedes Kind nun mal in der Tasche hat. Natürlich haben auch die Eltern eine Verantwortung, sich mit ihren Kindern darüber auszutauschen. Aber das tun Eltern nicht im gleichen Maße. Somit ist es mit Blick auf die Chancengerechtigkeit in unserer Gesellschaft eine schulische Aufgabe, dass das Smartphone im Unterricht auf den Tisch kommt, damit eine aktive Auseinandersetzung damit möglich ist. Zu dieser aktiven Auseinandersetzung gehört das Abschalten gleichermaßen wie das Nutzen des Handys. Durch ein reines Handyverbot lerne ich als Kind keinen adäquaten Umgang mit dem Gerät.

Wie könnte eine Strategie aussehen, um Kindern in der Schule mithilfe Künstlicher Intelligenz beizubringen, wie sie mit Künstlicher Intelligenz umgehen sollten?

Ein wesentlicher Teil dieser Strategie wäre, Kindern das Wissen und Bewusstsein zu vermitteln, dass diese künstliche Intelligenz vom Menschen gemacht wird. Dass wir nicht von den Algorithmen beherrscht werden, die uns mit den Dingen versorgen, die wir interessant finden. Also: vermeintlich interessant. Vielmehr sollten wir dafür sorgen, dass Robotik und Programmieren auch Teil des Curriculums sind, weil ich als Kind dann lerne, dass ich die Maschine beherrsche.

Es geht also um das Grundverständnis der Beherrschbarkeit.

Auch. Kinder können sich durch eine aktive Auseinandersetzung reflektierter zu digitalen Technologien verhalten als diejenigen, die nur in der passiven Konsumentenrolle davon beglückt oder damit bespielt werden. Es ist ein wichtiger Teil der Strategie, Beherrschbarkeit und Verantwortung zu vermitteln. Es geht nicht darum, dass jeder von uns Programmierer wird. Es geht um Basiskompetenzen der „algorithmic literacy“, und um das Bewusstsein, dass ich in jedem Teil meines Lebens und bei fast jeder Arbeit mit vermeintlich intelligenten Maschinen werde umgehen müssen. Wir müssen alle das Einmaleins beherrschen – und genauso sollte Schule einen Raum schaffen für die algorithmische Grundbildung.

Was Sie eben erwähnt haben, ist ja der Studie zufolge nur ein Randaspekt der Berichterstattung. Der Anteil von Themen wie Bildung, Energie und Klima im Zusammenhang mit KI geht im medialen Diskurs eher gegen Null. Was wäre also Ihr Appell an die Medien und alle, die den öffentlichen Diskurs mitgestalten – gerade mit Blick auf die Chancen für die nächste Generation?

Bevor ich an die Medien appelliere, wäre mein erster Punkt, auf die Akteure zu gucken und zu sagen: Es ist ihre Aufgabe, Anlässe zu schaffen, um über gesellschaftliche Chancen und Risiken der KI zu reden. Also zu fragen, was ist das gesellschaftliche Äquivalent zur Produktneuheit für Anwendungen in Staat und Gesellschaft? Ohne Anlass kann von Medien auch nur begrenzt verlangt werden, dass sie berichten. Allen Akteuren, die den öffentlichen Diskurs mitgestalten, muss es darum gehen, die Grauzonen stärker auszuleuchten.

Wie berichten Medien über Künstliche Intelligenz?

Welche Grauzonen meinen Sie?

Zu häufig gibt es entweder die Tekkie-Freaks, denen zufolge die Digitalisierung alle unsere Probleme löst, oder eben die dystopischen Science-Fiction-Fantasien, welche die künstliche Intelligenz als Bedrohung der Menschheit verdammen. So Schwarzweiß erzählt sich eine gute Geschichte, aber die Realität spielt sich in Grautönen ab. Sämtliche Technik ist vom Menschen gemacht – und es hängt vom Menschen ab, wie er ihren Einsatz gestaltet. Ein Tool zur Auswahl von neuen Mitarbeiterinnen und Mitarbeitern kann uns zu faireren Rekrutierungsprozessen verhelfen – oder auch Diskriminierung reproduzieren und verstärken. Diese Differenziertheit rüberzubringen und zu zeigen, dass immer der Mensch für die Verwendung der Technik verantwortlich ist – darum muss es gehen. Und was wir von den Medien erwarten dürfen ist, dabei etwas inklusiver zu sein, indem Journalisten in Zivilgesellschaft, Wissenschaft und Politik bewusster nachfragen und diese Akteure auch zu Wort kommen lassen. Die Debatte muss differenzierter und vielfältiger werden! (Interview: Boris Halva)

Das könnte Sie auch interessieren

Kommentare