+
Heather Dewey-Hagborg & Chelsea E. Manning. Probably Chelsea, 2017.

Frankfurter Kunstverein

Was bin ich: Vogel? Mikrowelle?

  • schließen

Der Frankfurter Kunstverein zeigt, wie Algorithmen die Welt sehen. Aber wie funktionieren solche "selbstdenkenden" Systeme eigentlich?

Es geht um Dinge, mit denen man permanent konfrontiert ist, selbst wenn man sich keinen Deut dafür interessiert: künstliche Intelligenz, Algorithmen, Überwachungselektronik. Zwar denkt man normalerweise nicht groß darüber nach, dass man im öffentlichen Raum, in Kaufhäusern, Foyers oder am Bankautomaten oft mehrmals täglich von Kameras gefilmt wird, neuerdings könnte es einem allerdings passieren, dass man im Frankfurter Kunstverein als mögliche Britney Spears identifiziert wird – sofern man ihr ähnlich sieht. Der belgische Künstler Dries Depoorter hat eine Technik entwickelt, mit deren Hilfe er zahlreiche Überwachungskameras, die ungesicherte Bilder aufzeichnen und übertragen, weltweit in Echtzeit anzapft. 

Das Gerät nutzt zudem einen Bilderkennungsservice von Microsoft, um Prominente aufzuspüren, deren aktueller Standort und Wikipedia-Eintrag im Kunstverein angezeigt wird. In den ersten zwei Tagen seit ihrer Installation hat die Arbeit mit dem Titel „Surveillance Paparazzi“ allerdings erst sieben mögliche C-Promis dingfest machen können, darunter einen indischen Schachspieler und eine koreanische Sängerin. Rugby-Fans mag immerhin der Neuseeländer Rene Ranger ein Begriff sein, der von dem System mit einer Wahrscheinlichkeit von 67 Prozent identifiziert wurde.

„I am here to learn – Zur maschinellen Interpretation der Welt“ ist der Titel der großartigen Ausstellung, für die der Kurator Mattis Kuhn zusammen mit Kunstvereins-Leiterin Franziska Nori Werke zusammengetragen hat, die die Prozesse maschineller Wahrnehmung und Handlungsautonomie thematisieren. Es geht um Techniken, die in zahlreichen gesellschaftlichen Bereichen längst angewendet werden, elektronische Systeme, denen wir Verantwortung übertragen, deren Anfälligkeit für fehlerhafte Interpretationen jedoch im Extremfall fatale Folgen haben kann. Wenn – wie 2013 im Jemen geschehen – eine US-Drohne aus Versehen eine Hochzeitsgesellschaft bombardiert, kann das schlichtweg daran liegen, dass Algorithmen aus Beobachtungen falsche Schlüsse gezogen haben. Wie schnell das geht, sieht man täglich im Netz an personalisierter Werbung, die häufig genug an den falschen Adressaten gerät.

Die Fehlerhaftigkeit solcher Systeme zeigt in einer frappierenden Eindeutigkeit auch die Arbeit „1 & N Chairs“ von Fito Segrera, die aus einem Holzstuhl besteht, deren Details von einer Kamera abgefilmt werden. Auch hier kommt ein Bilderkennungssystem von Microsoft zum Einsatz, das die gefilmten Ausschnitte auswertet. Zu welchen Erkenntnissen es gelangt, zeigen zwei Monitore: rechts sieht man die Bildbeschreibung – etwa „Vogel“ oder „Mikrowelle“ – links ein Bild, das bei der Onlinebildersuche zu diesem Begriff erscheint. Die Anspielung auf Joseph Kosuths legendäre Installation „One and Three Chairs“, die einen Stuhl mit seinem Foto und seiner lexikalischen Beschreibung konfrontiert, liegt auf der Hand. Die Gegenwart jedoch – so suggeriert die Arbeit des kolumbianischen Künstlers und Technologen, führt die Möglichkeiten der Abstraktion eines Dings ins Unendliche – und gleichzeitig ad absurdum. 

Aber wie funktionieren solche „selbstdenkenden“ Systeme eigentlich? Woher haben sie ihr Wissen? Trevor Paglen hat sich damit intensiv auseinandergesetzt. Künstliche Intelligenz wird trainiert, indem sie mit unzähligen Daten, sogenannten Trainings-Sets gefüttert wird. Sie lernt durch Ähnlichkeiten und Unterschiede Muster zu erkennen und auf diese Weise Objekte zu identifizieren. In seiner Videoinstallation „Behold These Glorious Times!“ zeigt der New Yorker Künstler, welche Art Material zur Bildung künstlicher Intelligenz verwendet wird und wie vorhandene Bilder und Filme in elektronisch erkennbare Fragmente zerlegt werden. Gespenstischer noch wirkt eine zweite Serie („Adversarially Evolved Hallucination), für die der Künstler zwei KI-Systeme – einen bilderkennenden und einen bildgenerierenden – aufeinander reagieren ließ. Die weitgehend abstrakten Ergebnisse wirken auf das menschliche Auge eher verstörend als eindeutig. 

Ganz ähnlich verhält es sich mit „Machine Learning Porn“, einem Werk des Londoner Medienkünstlers Jake Elwes. Es handelt sich um einen Film, der auf den ersten Blick abstrakt erscheint. Je länger man hinsieht, desto deutlicher erahnt man Close-up-Szenen aus Pornofilmen. Es handelt sich um synthetische Bilder, die von einem Netzwerk produziert wurden, nachdem man es zuvor mithilfe von Tausenden Bildern mit pornografischem Inhalt trainiert hat. Das Trainingsset stammt übrigens von Yahoo und dient eigentlich dazu, pornografisches Material aus den Suchergebnissen auszuschließen. Ob die so generierten Bilder in der Lage sind, einen Menschen in Stimmung zu bringen, ist immerhin fraglich.

Um zu verhindern, dass man sich im Kunstverein zum Beispiel als 56-prozentiger David Hasselhoff wiederfindet, gibt es übrigens eine Reihe von Tricks – wie die Arbeit des amerikanischen Künstlers und Forschers Adam Harvey zeigt: Das Projekt „CV Dazzle“ präsentiert Styling-Tipps, mit deren Hilfe man die automatische Erkennung durch Identifikationssysteme austricksen kann. Von Algorithmen zur Gesichtserkennung werden zum Beispiel die ovale Gesichtsform, der Abstand zwischen Augen und Ohren sowie die Symmetrie zwischen Nase und Mund erfasst. Verdeckt man ein Auge oder aber die Nasenwurzel mit einer Haarsträhne, hat die automatische Gesichtserkennung Probleme. Wie schön, dass es noch Bilder gibt, die nur der Mensch eindeutig zuordnen kann.

Kunstverein Frankfurt: bis 8. April. www.fkv.de

Das könnte Sie auch interessieren

Kommentare

Liebe Leserinnen und Leser,

wir bitten um Verständnis, dass es im Unterschied zu vielen anderen Artikeln auf unserem Portal unter diesem Artikel keine Kommentarfunktion gibt. Bei einzelnen Themen behält sich die Redaktion vor, die Kommentarmöglichkeiten einzuschränken.

Die Redaktion