Update: Mechanische Ente

Vor zwölf Jahren schrieb ich in „Internet – Segen oder Fluch“ ein Kapitel über unzuverlässige Informationen. Damals lag die Diskussion, ob die Wikipedia ein fataler Irrweg ist, gerade hinter uns.
Mein Abschnitt darüber endet mit dem Satz: „Was nicht heißt, dass es nicht eines Tages eine ganz andere Lösung geben kann, die uns heute noch so absurd vorkäme wie vor fünfzehn Jahren ein von anonymen Freiwilligen verfasstes Nachschlagewerk.“
Jetzt ist sie da, die ganz andere, noch absurdere Lösung.
Bing, die Microsoft-Suchmaschine, hat seit ein paar Wochen einen Chatmodus, in dem man ihr Fragen stellen kann und individuell erzeugte Antworten zurückbekommt. Bei Google wird in den nächsten Monaten dasselbe passieren. Ultrakurzfassung für alle, die die Techniknachrichten der vergangenen vier Jahre verpasst haben: Seit ungefähr 2019 lassen sich mit kostenlos verfügbaren Werkzeugen Texte generieren, die auf den ersten Blick aussehen wie von Menschen geschrieben. Seit 2020 sehen sie auch auf den zweiten Blick aus wie von Menschen geschrieben. Mit derselben Technik werden diese neuen Antworten erzeugt. Es gibt sie in verschiedenen Varianten, die meistens die Abkürzung „GPT“ im Namen tragen.
„Das ist doch schon lange so“, könnte man an dieser Stelle denken, „Siri / Alexa / Google antwortet seit zehn Jahren auf meine Fragen.“ Aber Siri, Alexa und der Google Assistant beschaffen die Antworten, indem sie andere Anwendungen – zum Beispiel den Kalender – danach fragen, oder sie geben Textbausteine aus. Wenn Siri einen Witz erzählt, hat vorher ein Mensch genau diesen Witz in Siris Datenbank abgelegt.
Der neue Suchmaschinen-Chatmodus funktioniert anders. Im Gehäuse steckt kein Modell der Wirklichkeit, sondern nur ein Modell davon, wie Sprache zusammengesetzt wird. Deshalb sind in den vergangenen Wochen viele Nachrichten und Artikel (von Menschen) über Fälle geschrieben worden, in denen die Technik falsche Antworten liefert: Sie schlägt Kochrezepte für giftige Pilze vor, verleumdet Prominente, entstellt Lebensläufe und kann alle Auskünfte mit plausibel klingenden, aber frei erfundenen Quellen belegen. Wenn eine traditionelle Suchmaschine keine Seite in ihrem Index hat, die so aussieht, als könnte sie das Gesuchte enthalten, liefert sie null Treffer zurück. Im neuen Verfahren bekommt man auf jeden Fall eine Antwort. Ob sie stimmt oder nicht, ist Glückssache, aber überzeugend klingt sie auf jeden Fall.

Ich bin keine Texterzeugungsmaschine und möchte an dieser Stelle nicht wieder das schreiben, was ich schon zu oft geschrieben habe. Bitte denken Sie sich hier einfach ein paar Sätze darüber, dass wir die Diskussion über unzuverlässige Behauptungen schon oft geführt haben, Stichworte Blogs, Wikipedia, Internet, Buchdruck, ein fünfhundert Jahre altes Zitat über gedruckte Irrtümer, fertig. Weil ich immer gegen „Aber diesmal ist es anders“-Texte protestiert habe, kann ich jetzt nicht behaupten, dass es diesmal anders und der Vorwurf zum ersten Mal wirklich berechtigt ist. Ich bin zwar zum ersten Mal ein bisschen verlockt, das zu tun, aber das liegt mehr an meinem Lebensalter als an der Technik. Darum verweise ich stattdessen auf die vielen schon existierenden Texte über die Nachteile und Risiken des neuen Verfahrens.
Es wäre leicht zu argumentieren, dass es sich nicht zum Erzeugen von Antworten eignet und prinzipiell niemals dazu in der Lage sein wird. Zwei Dinge sprechen dagegen: Erstens ist das Neue oft schlecht und wird dann besser. Zweitens war die Menschheit bisher ganz gut darin, Verfahren ausgerechnet für die Einsatzzwecke nutzbar zu machen, für die sie sich am allerwenigsten zu eignen scheinen. Mit einem Vakuum hat man Pferdegespanne aneinandergeheftet, mit Wasserdampf Kohlebergwerke trockengelegt, Autos bewegen sich mit der Energie zuckender Froschschenkel fort und meine Heizdecke wird vom kalten Wind erwärmt. Irgendein Weg führt also wahrscheinlich auch von der Konfabulation zur brauchbaren Auskunft.
Bis dieser Weg besser ausgebaut ist, gibt es viele Anwendungsfälle, bei denen richtige Antworten nicht so wichtig sind. Manchmal geht es wirklich nur um den wahrscheinlichsten Zusammenhang zwischen Wörtern, zum Beispiel beim Schreiben in einer Fremdsprache. Bei anderen Fragen kann man durch Ausprobieren herausfinden, ob eine Auskunft brauchbar ist oder nicht, ohne dabei zu versterben wie im Pilzbeispiel. Bei bestimmten Sorten von Problemen reicht es sogar, ein Gespräch mit einer ganz ahnungslosen Person zu führen, ein Verfahren, das unter dem Namen „Rubber Duck Debugging“ in der Softwareentwicklung beliebt ist: Während man dem Gummientchen das Problem erklärt, merkt man selbst, was die Antwort wäre. Fürs Erste muss das reichen. Und nächste Woche sieht die Welt schon wieder anders aus.