Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für FR.de. Danach lesen Sie FR.de gratis mit Werbung.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf FR.de
  • Zum Start nur 0,99€ monatlich
  • Zugang zu allen Berichten und Artikeln
  • Ihr Beitrag für unabhängigen Journalismus
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

Die computerbasierte Installation „Infinity“ von Universal Everything, 2021.
+
Die computerbasierte Installation „Infinity“ von Universal Everything, 2021.

Ausstellung

Künstliche Intelligenz im ZKM: Wie Maschinen einander zuhören

  • Sandra Danicke
    VonSandra Danicke
    schließen

Über Medien, die sich wie Menschen verhalten: Die Ausstellung „BioMedien“ im ZKM denkt über Intelligenz nach.

Lässig marschieren sie zu Plingplong-Musik von links nach rechts über den Bildschirm. Toll, diese Wuschelkostüme! Einige sehen aus wie wildgewordene Wischmopps, andere ähneln vergrößerten Bakterienkulturen oder einem afghanischen Windhund, der sich den Regen aus dem Fell schüttelt. Ui, ein rosafarbene Pilzbefall, wie originell! Können wir den nochmal kurz sehen? Leider nein, denn jede dieser schwungvollen, wie ein Model laufenden Figuren kommt hier nur einmal vorbei, und es sind viele, endlos viele. Die Protagonisten dieser eigenwilligen Parade entstammen einem Videokunstwerk namens „Infinity“, das im wahrsten Sinne des Wortes endlos läuft. Jedes Mal, wenn man hinschaut, sieht man etwas Neues, jede Minute, jeden Tag, für immer. Denn die Figuren werden in Echtzeit generiert.

Möglich ist das durch eine spezielle Kodierung und die neueste Apple M1-Chip- oder Nvidia-Grafiktechnologie (für die Spezialisten unter uns). Der Stream wird aus dem Studio von Universal Everything, einem „digitalen Kunstpraxis- und Designstudio“ mit Sitz im englischen Sheffield übertragen. Derzeit ist es im Zentrum für Kunst und Medien Karlsruhe (ZKM) in der Ausstellung „BioMedien. Das Zeitalter der Medien mit lebensähnlichem Verhalten“ zu sehen, kann aber auch im Netz betrachtet werden.

Die Ausstellung beschäftigt sich mit einem Themenkomplex, der die Welt derzeit massiv umtreibt: Wo liegt die Schnittstelle zwischen Technik und Leben? Wer oder was definiert, was lebendig und was intelligent ist? Können künstliche Lebensformen empathisch sein? Welche ethischen Fragen stellen sich? Wobei sich Experten dem Thema schon weit länger annehmen, als man auf Anhieb denkt. Bereits seit Jahrhunderten versuchen Menschen, Maschinen zu konstruieren, die das Leben simulieren – von der Animatronik - mechanische Automaten, die mit Hydraulik, Pneumatik oder Uhrwerken betrieben werden und die es bereits im 16. Jahrhundert gab - über Bewegungsmaschinen auf Rädern im 19. Jahrhundert bis zum Bewegtbild, der Kinematografie, im 20. Jahrhundert.

Inzwischen ist man bekanntlich einen deutlichen Schritt weiter gegangen, denn eine Reihe auf unterschiedliche Weisen simulierter Wesen hat gelernt, mit uns Menschen zu interagieren, und nicht nur das. Obwohl sie keine Seele, keine Gefühle haben, sind diese Wesen durchaus in der Lage, emotionale Reaktionen bei uns auszulösen, was wiederum enorm verunsichern kann.

Es fühlt sich durchaus merkwürdig an, wenn in einem Virtual Reality Video („The Jellyfish“ von Mélodie Mousset und Edo Fouilloux), das unter Wasser spielt, Quallen auf die Tonhöhe, Vibration und Intensität unserer Stimme reagieren und unser Verhalten widerspiegeln. Was sehen wir darin? Uns selbst? Ein eigenständiges Gegenüber? Und ist das wirklich so viel anders als bei einer menschlichen Unterhaltung, wo es ja ein vergleichbares Reiz-Reaktionsschema gibt?

Irritierend erscheint in diesem Zusammenhang auch die Arbeit „Narciss“ von Christian Mio Loclair, eine Computer-basierte Installation aus Bildschirm, Spiegel und Kamera. Es handelt sich dabei um einen Versuchsaufbau der selbstreferenziellen Art. „Narciss“ ist eine künstliche Intelligenz, die gebaut wurde, um ihre eigene Verkörperung permanent zu analysieren, sich also stetig selbst zu erforschen. Ein Verhalten, das dem menschlichen erschreckend ähnlich zu sein scheint.

Dem Computer gegenüber steht ein runder Spiegel, beide sind in einer Endlosschleife von Darstellung und Interpretation gefangen. Eine bewegliche Kamera ist dem Spiegel zugewandt. Durch ständiges Schwenken und Zoomen erhält „Narciss“ Bilder von verschiedenen Perspektiven und Teilbereichen seiner Hardware. Der menschliche Betrachter ist von diesem internen Kreislauf weitgehend ausgeschlossen. Oder doch nicht ganz. „I am a person standing in front of a television“, interpretiert „Narciss“ via Bildschirm, während man selbst auf den Bildschirm starrt. Dann wieder kryptisch: „I am a view of a clock tower in the dark“ oder „I am a stack of books sitting on top of a wooden table“. Klingt das nicht auch ein wenig nach lyrischen Beschreibungen für menschliche Seelenzustände? „Das Projekt Narciss zielt darauf ab, das selbstgerechte Modell des Selbstbewusstseins der Menschheit, die Qualität der subjektiven Erkenntnisse bei der Erforschung der eigenen Person und die daraus resultierende ungleiche Verteilung der Würde zu hinterfragen“, heißt es etwas sperrig auf der Homepage des Künstlers.

Dass Maschinen den Menschen gar nicht mehr brauchen, nachdem dieser sie erst einmal konstruiert hat, darauf zielt auch die Installation „Speculative AI /„Esp. #2“ ab, die Birk Schmithüsen bereits 2019 in Gang gesetzt hat. Es handelt sich dabei um zwei autonome KI-Systeme, die miteinander auf ihre je eigene Weise kommunizieren. Das eine ist ein 95 Meter langer, zusammengeknäuelter LED-Schlauch, der mit einem Mikrofon ausgestattet wurde und auf bestimmte Geräusche mit abstrakten Lichtmustern reagiert. Das zweite System, das im Wesentlichen aus Lautsprechern besteht, empfängt über eine Kamera visuelle Botschaften von seinem Gegenüber, die er in multidimensionalen Sound umwandelt. Die beiden verstehen einander, gehen aufeinander ein.

Dasselbe lässt sich auch von der Arbeit „PL’AI“ von Špela Petric sagen, in der Gurkenpflanzen monatelang mit einem KI-gesteuerten Roboter interagieren. Der Roboter ist darauf programmiert, Bilder der Pflanzen zu erfassen und vorherzusagen, wie sie weiter wachsen werden. Auf der Basis dieser Prognosen verlängert oder verkürzt er Drähte, an denen sich die Pflanzen entlang schlängeln. Die Pflanzen wiederum beeinflussen durch ihr Wachstum das Lernsystem des Computers.

Hier interagieren also zwei nichtmenschliche Entitäten miteinander, deren Aktionen so langsam vonstatten gehen, dass sie für unsere Augen gar nicht sichtbar sind. Ist das nun Intelligenz, wie wir Menschen sie verstehen? Natürlich nicht. Andererseits ...

ZKM Karlsruhe: bis 28. August 2022. zkm.de

Das könnte Sie auch interessieren

Mehr zum Thema

Kommentare