+
"Dann entwickelten französische Informatiker und Botaniker gemeinsam die Pl@ntnet-App."

Update

Armer Algorithmus

  • schließen

Es gibt Apps, die sehr viel erkennen können. Doch sie sind auch auf das Einfühlungsvermögen ihrer Nutzer angewiesen.

Manchmal begegnet man draußen einer unbekannten Pflanze und wüsste gern mehr darüber. Wenn man noch klein ist, kann man einfach „Und das?“ fragen. Eltern oder Großeltern werden dann je nach Qualifikation „eine Blume“ oder „ein Pfeifenstrauch“ sagen. Wenn man größer wird, versucht man sich die Eigenheiten der Pflanze einzuprägen oder steckt einen Zweig in die Jackentasche. Den Zweig findet man drei Monate später zerkrümelt wieder, und die Eigenschaften, die man sich gemerkt hat, sind nicht die, nach denen das Bestimmungsbuch zu Hause fragt. Ähnlich wie Café- und Supermarktpersonal im Ausland immer gerade die eine Frage stellt, auf die man in der Fremdsprache jetzt wirklich nicht vorbereitet ist, kann man sich zwanzig Eigenschaften einer Pflanze einprägen und sicher sein, dass das Bestimmungsbuch als Erstes wissen wollen wird, ob irgendein einundzwanzigster Pflanzenteil „halbunterständig“ oder „streifennervig“ war.

Zwischen 2000 und 2015 kamen diverse Bestimmungsprogramme auf den Markt. Sie liefen nur auf dem Computer zu Hause, die Probleme mit zerbröselten Jackentaschenzweigen blieben also unverändert. Und die Software setzte weiterhin voraus, dass man sich rechtzeitig gemerkt hatte, ob der Blütenstand eher eine Rispe, eine Schirmrispe oder eine Dolde war.

Hier schreibt Kathrin Passig jede Woche über Themen des digitalen Zeitalters. Sie ist Mitbegründerin des Blogs „Techniktagebuch“. www.kathrin.passig.de

Dann entwickelten französische Informatiker und Botaniker gemeinsam die Pl@ntnet-App. Seitdem muss man nichts mehr über kreuzgegenständige, quirlständige und grundständige Blattstellung wissen, sondern nur noch ein Smartphone dabeihaben. Man macht ein Foto der Pflanze, ein Bilderkennungsalgorithmus vergleicht dieses Bild mit etwa 70 Millionen Bildern in der Pl@ntNet-Datenbank und macht ein paar Vorschläge, worum es sich handeln könnte. Diese Vorschläge sind nicht immer richtig, aber überraschend oft: Nach Angaben der Betreiber befindet sich die richtige Identifikation bei 93 Prozent der Bilder unter den ersten fünf Vorschlägen. Wer möchte, kann das eigene Foto unter einer Creative-Commons-Lizenz der Datenbank hinzufügen.

Pl@ntNet stammt aus dem Jahr 2010 und konnte anfangs nur 27 Bäume aus dem Mittelmeerraum unterscheiden. 2013 gab es die erste mobile App, und richtig zu Hochform aufgelaufen ist die App seit etwa 2017. Heute nutzen um die 100 000 Leute sie täglich – ohne jemals miteinander zu reden. Pl@ntNet ist gleichzeitig ein soziales Netzwerk und auch wieder nicht, denn es gibt keine Möglichkeit zur Kontaktaufnahme und schon gar nicht zur öffentlichen Diskussion. Ich finde das erholsam, weil es bedeutet, dass strittige Identifikationen nicht gleich in „Nein!“-„Doch!“-Debatten ausarten. Wenn die Menschen geteilter Meinung sind, nimmt der Algorithmus das jeweilige Foto eben nicht ganz so ernst und verlässt sich stattdessen auf diejenigen Bilder, über die Einigkeit herrscht. Ein Teil der Fotos hat Kalenderbildqualität. Die Mehrheit zeigt Pflanzenteile ohne künstlerischen Anspruch auf gut erkennbare Weise. Aber manchen Fotografierenden mangelt es einfach an Mitgefühl mit dem Algorithmus: eine sonnenbeschienene Wachstuchtischdecke mit lodernden Blumenmotiven, dahinter im Schatten ein graubrauner Kürbis. Eine Straßenansicht mit Autos, am oberen Bildrand eine unscharfe Tomatenranke. Ein um 45 Grad gedrehter, vermutlich öffentlicher Toilettenraum mit Topfpflanze. Angebissenes Grünzeug mit Soßenresten in der Pfanne. Und immer wieder Hände, Hände, Hände, manchmal auch Füße, Bäuche und behaarte Oberschenkel. Penisbilder werden vom Algorithmus erkannt und herausgefiltert, mit oder ohne Pflanzen-Content. Aber woher soll die arme Software ahnen, dass wir uns nicht für das Muster der Tischdecke, die Autos oder die Hände interessieren, sondern für den blassen Halm, der irgendwo ins Bild ragt?

Für die Zukunft sehe ich drei mögliche Weiterentwicklungen: Entweder wird Einfühlungsvermögen in die Fähigkeiten und Bedürfnisse von Algorithmen als Teil eines Schulfachs Medienkompetenz in den Lehrplan aufgenommen. Oder die Bilderkennung, die ja in den letzten paar Jahren dramatisch besser geworden ist, macht einen weiteren Sprung und errät danach korrekt, dass Wohnzimmereinrichtung ignoriert werden soll, und sei sie noch so geblümt. Vielleicht entdecken aber auch die Alltagsforscher der Zukunft den Datenschatz des Pl@ntNet-Archivs und extrahieren daraus allerhand Einsichten über Tischtuchmuster, Inneneinrichtungen und Geburtstagsfeiern des frühen 21. Jahrhunderts.

Das könnte Sie auch interessieren

Mehr zum Thema

Kommentare

Liebe Leserinnen und Leser,

wir bitten um Verständnis, dass es im Unterschied zu vielen anderen Artikeln auf unserem Portal unter diesem Artikel keine Kommentarfunktion gibt. Bei einzelnen Themen behält sich die Redaktion vor, die Kommentarmöglichkeiten einzuschränken.

Die Redaktion