Lade Inhalte...

Superintelligenz Das Regiment der Algorithmen

Selbstlernende Programme steuern subtil unsere Wahrnehmung und manipulieren unser Weltbild. Wer setzt der Übermacht der Superintelligenz Grenzen? Ein Gastbeitrag.

12.05.2017 18:35
Roboter
Fiktion oder Realität: Werden Roboter künftig als Sicherheitskräfte bewaffnet durch die Straßen patrouillieren? Foto: Getty

Große schwarze Augen. Surren. Silbernes Blech. Glänzende Scharniere. Mechanische Bewegungen. So hat uns Hollywood Roboter verkauft. Mal waren sie freundlich, mal feindselig, immer verlieh ihnen ihr Charakter etwas Menschliches. Die Faszination über die Superintelligenten ist wohl so alt wie die Entertainmentindustrie selber. Und heute, 90 Jahre nachdem Fritz Lang in seinem Metropolis Brigitte Helm in einen Roboter verwandelte, scheint mit selbstfahrenden Autos oder digitalen Dolmetschern die Fiktion Wirklichkeit zu werden. Allerdings hat unser Bild von Robotern als dem Menschen nachempfundene Blechgestalten nicht mehr viel mit der Realität zu tun. Die intelligenten Maschinen, die unser Leben bestimmen, sind unsichtbar und haben keinen Körper. Es sind Algorithmen, Programmcodes, die selbstständig Entscheidungen treffen, Anweisungen geben und von alleine lernen.

Selbstlernende Algorithmen sind, vereinfacht gesagt, Systeme, die so programmiert sind, dass sie sich selber weiterentwickeln und verbessern können. Dank der technischen Entwicklung, etwa der gesteigerten Rechenleistung von Computern, machte die Wissenschaft hier im vergangenen Jahrzehnt erhebliche Fortschritte. Einige von ihnen erlangten bereits Prominenz: Googles Alpha Go sorgte vergangenes Jahr für Aufregung, als er den amtierenden Meister des hochkomplexen chinesischen Brettspiels Go besiegte. Ein anderer, Libratus, gewann Anfang des Jahres gegen die weltbesten Pokerspieler. Und IBMs Watson, fast ein alter Hase unter den künstlichen Intelligenzen, brachte es nicht zuletzt zu Ruhm, weil er im vergangenen Jahr einer Frau in Japan vermutlich das Leben rettete. Innerhalb von zehn Minuten verglich Watson den Krankheitsverlauf der Patientin mit Daten aus 20 Millionen wissenschaftlichen Publikationen der Krebsforschung und attestierte ihr eine seltene Art der Leukämie. Die Frau konnte daraufhin geheilt werden. Auch ohne das schimmernde Blech umweht diese schillernde Heldengeschichten einen Hauch von Hollywood.

Dies sind einzelne Anwendungsfälle. Spielereien, die zeigen, was möglich ist. Sie bergen aber die Gefahr, davon abzulenken, wie auch schon heute unser Alltag auf viel subtilere Weise von sogenannter schwacher künstlicher Intelligenz geprägt wird. Und diese Beispiele zeigen, dass wir uns weniger vor der allmächtigen Superintelligenz wie im Film „Terminator“ fürchten müssen als vielmehr vor unserem blinden Vertrauen in Technologie, die unsichtbar im Hintergrund agiert.

Denn die selbstlernenden Algorithmen, die auch Watson & Co. zugrunde liegen, prägen bereits heute viele Entscheidungen. Etwa, welche Werbung uns beim Surfen durch das Internet angezeigt, welches Buch beim Online-Kauf empfohlen, welches Wort uns die automatische Sprachkorrektur vorgibt. Grundlage dieser Entscheidungen sind Daten. Daten, die heute nahezu allgegenwärtig bei der Nutzung von Handy und Internet und durch die vielfältig vernetzten Geräte und Sensoren generiert werden. Die Algorithmen bekommen diese Daten quasi als Futter und ziehen daraus, je nach ihrem Design, die Konsequenzen. Die Ergebnisse erschließen sich nicht aus Kausalitäten, sondern aus Korrelationen. Insofern können selbst die Entwickler der Systeme oft nicht genau sagen, wie der Algorithmus beispielsweise zum Ergebnis kommt, dass ein Nutzer besonderes Interesse an einem bestimmten Produkt haben könnte.

Wie problematisch dies ist, zeigt ein Vorfall während der US-Wahlnacht. Obwohl die Zahl der Videos mit positiven Botschaften für die Kandidaten Donald Trump und Hillary Clinton in der Summe ähnlich war, zeigte an diesem Abend das in den USA einflussreiche Videoportal Youtube deutlich mehr Pro-Trump-Videos und Videos mit Falschnachrichten zu Clinton. Der Grund: Youtubes Algorithmus ist darauf trainiert, mit allen Mitteln die sogenannte Interaktionszeit der Nutzer zu erhöhen. Diese Interaktion setzt sich zusammen aus der verbrachten Zeit auf der Seite und den Klicks. Empfehlungen auf Youtube sind also solche, mit denen der Algorithmus vermutet, die Interaktionszeit aller Nutzer zu steigern. Mindestens am Abend der Wahlnacht verfälschte dies das Bild von den Kandidaten.

Ein anderes Forscherteam zeigte: Wer bei Youtube nach der Frage „Ist die Erde eine Scheibe?“ sucht und dann fünfmal den angezeigten Empfehlungen folgt, bekommt 90 Prozent Empfehlungen von Videos, die erläutern, warum die Erde eine Scheibe ist. Empfehlungen können insofern mit jeder Theorie verknüpft werden, die die Interaktionsrate steigert, unabhängig von Fakten oder verbreiteten Ansichten.

Das ist auch deswegen problematisch, weil Youtube, das zur Google-Mutter Alphabet gehört, keine Informationen über den Algorithmus teilt. Abweichungen von Fakten, aber auch von ethischen oder moralischen Normen, können nur durch mühsame Recherche aufgedeckt werden. Dem durchschnittlichen Nutzer wird kaum auffallen, dass er durch die Empfehlungen in seiner Wahrnehmung fehlgeleitet werden könnte.

Diese Optimierungsverfahren, die sich in der Online-Werbung und im Entertainment-Bereich als besonders lukrativ herausstellten, verbreiten sich in zahlreichen anderen Lebensbereichen. So versuchen Banken besser einzuschätzen, wer einen Kredit zurückzahlen wird, und Konzerne lassen sich aus einer Unmenge an Bewerbern den passende Kandidaten herausfiltern. Doch welche Möglichkeiten bleiben dem Kreditanwerber, die Richtigkeit einer Entscheidung nachzuvollziehen, wenn die Betreiber selber das System nicht hinreichend verstehen? Ebenso wenig wird der Betroffene die Möglichkeit haben, Fehler aufzudecken. Denn die Daten, die den Algorithmen als Grundlage dienen, sind nicht neutral, wie es den Anschein hat. Daten sind ein Produkt von Historie und Reproduktion. Diskriminierungen im realen Leben spiegeln sich auch in Daten wieder, die dann als Grundlage angeblich neutraler Entscheidungen durch selbstlernende Algorithmen reproduziert werden.

Beispiele des verweigerten Zugangs zu Versicherungen oder Krediten polarisieren, da sie Diskriminierungen besonders verdeutlichen. Man muss sich allerdings nicht erst solcher Extreme bedienen, um die gesellschaftlichen Folgen automatisierter Systeme zu erkennen. Die österreichischen Forscher Wolfie Christl und Sarah Spiekermann zeigen in ihrem Buch „Networks of Control“ eine Vielzahl von Beispielen, in denen Benachteiligungen weltweit im Online-Marketing auftreten: etwa indem der Algorithmus darüber entscheidet, einem Kunden ein Produkt mit minimal höherem Preis anzubieten. Oder es wird Werbung für faule Kredite angezeigt, weil der Algorithmus glaubt, eine Anfälligkeit für ein solches Angebot zu erkennen. Oder die Wartezeit in der Kunden-Hotline verlängert sich, weil man als weniger wertvoller Kunde eingestuft wird. Im Einzelnen mag dies das Leben kaum verändern, in der Summe und insbesondere in der verstärkenden Wirkung können die Effekte aber durchaus signifikant sein und Ungleichheiten verstärken.

Auch hier braucht es deswegen mehr Transparenz und kritische Auseinandersetzung darüber, inwiefern wir alle Lebensbereiche von uns kaum noch durchschaubarer Technologie durchziehen lassen wollen. Die Debatte über die großen ethischen Fragen künstlicher Intelligenz ist sicherlich wichtig, etwa über die Haftung von Robotern oder die Regulierung selbstfahrender Autos, wie sie in der von der Bundesregierung berufenen Ethikkommission oder auf EU-Ebene diskutiert werden.

Vielleicht ist sogar die Sorge vor der Übermacht neuer Superintelligenz berechtigt und wir werden eines Tages dem Silicon-Valley-Visionär Elon Musk dankbar sein, dass er kürzlich zehn Millionen Dollar in Forschungsprogramme investierte, um uns vor einer Übermacht der Superintelligenz zu bewahren. Doch heute braucht es zunächst dringend eine kritische Auseinandersetzung mit den weniger glamourösen, aber dadurch nicht weniger einflussreichen Auswüchsen der künstlichen Intelligenz.

Die Zeitung für Menschen mit starken Überzeugungen.

Multimedia App E-Paper
App
Online Kundenservice Abo-Shop
Ok

Um Ihnen ein besseres Nutzererlebnis zu bieten, verwenden wir Cookies. Durch Nutzung unserer Dienste stimmen Sie unserer Verwendung von Cookies zu. Weitere Informationen