+
Illusionen für Millionen: Am Computer lassen sich die fantastischsten Geschichten realisieren.

Computersoftware

Extrem manipulativ: Warum Deepfakes Sicherheitsexperten in aller Welt beunruhigen

  • schließen

Perfekt nachgeahmte Stimmen und Gesichtszüge: Neue Computerprogramme stellen unseren Glauben an die Realität auf die Probe. Die Gefahren für Bürger und Firmen sind enorm.

Der Mann glaubte fest, seinen Boss am Telefon zu haben. Heute kann sich der Geschäftsführer einer britischen Firma aus der Energiebranche einer besonderen Rolle in der Technikgeschichte rühmen: Er ist das erste Opfer eines Betrugs mit gefälschter Stimme. Der Anrufer gab sich als der Präsident des deutschen Mutterkonzerns aus, zu dem das britische Unternehmen gehört. Der deutsche Akzent im Englischen, die Sprachmelodie – alle Details klangen überzeugend.

Ungewöhnlich war nur, dass der Präsident den Geschäftsführer am Telefon anwies, eine angeblich enorm dringende Überweisung nach Osteuropa zu veranlassen. „Dieser hat sich zwar etwas gewundert, da er jedoch die Stimme eindeutig erkannte, hat er den Auftrag trotzdem durchgeführt“, sagt Rüdiger Kirsch vom Versicherer Euler Hermes, der für den Schaden aufkommen musste. „Das gesamte Geld war weg.“ Der Schaden: 220 000 Euro.

Technische Entwicklung von Deepfakes verläuft schnell

Der britische Geschäftsführer fühlte sich zwar blamiert – doch er kann sich trösten: Bisher weiß kaum jemand, dass sich Stimmen in Echtzeit nachahmen lassen. Die technische Entwicklung verlief hier in den vergangenen zwei Jahren enorm schnell. Innerhalb von Monaten ist aus einer Utopie Realität geworden.

Dabei steht die Technik noch am Anfang: „In einem oder zwei Jahren gibt es vielleicht den ersten Fake-President-Fall, bei dem die Zahlungsanweisung per Deepfake-Video über Whatsapp kam“, sagt Ron van het Hof, Chef von Euler Hermes in Deutschland.

Das Aufkommen der sogenannten Deepfakes beunruhigt nun Sicherheitsexperten rund um den Globus. Zugleich steht die Beschäftigung damit bei deutschen Institutionen offenbar noch ziemlich am Anfang. „Das Thema wird auch aus datenschutzrechtlicher Sicht in der Zukunft sicherlich an Relevanz gewinnen“, teilte das Büro des Bundesdatenschutzbeauftragten mit; weitere Informationen lägen nicht vor. Auch das Bundesamt für Sicherheit in der Informationstechnik befindet sich noch in der Erkundungsphase.

Deepfake als Wendepunkt für Kommunikationsmedien

Fake: Unternehmer Elon Musk als James Bond.

Dabei markiert die neue Technik einen grundsätzlichen Wendepunkt im Umgang mit Kommunikationsmedien. Die wichtigste Möglichkeit, Menschen zu identifizieren, wird schon bald entwertet sein. Die Nachahmung von lebendigem Bewegtbild und Stimme liegen technisch in Reichweite von Normalbürgern. An Hardware genügt ein PC mit einer modernen Grafikkarte. Wer seinem Gegenüber vertrauen will, muss ihn also ab jetzt mit Trickfragen testen – und langfristig wird eine elektronische Echtheitsprüfung den Verbindungsaufbau begleiten. Wie beim Kontakt mit Webseiten könnte dann ein kleines Symbol auf dem Display erscheinen.

Sicherheitsexperten sehen für die Übergangszeit ein großes Problem damit, dass die neuen Verfahren in der Bevölkerung noch unbekannt sind. „Die Gesellschaft wird von den neuen Möglichkeiten überrumpelt“, sagt David Wollmann, Sicherheitsberater bei der Firma NTT Security. Es sei schnelle Aufklärung nötig, sonst drohe eine Welle von Betrugsfällen. Nicht nur Varianten der „Chef-Masche“ seien denkbar, sondern auch Erpressung. Verbrecher könnten Firmen androhen, nachgeahmte Pleitemeldungen zu verbreiten. Im privaten Bereich sind die Entsprechungen der Enkeltrick („Oma, ich brauche dringend Geld!“) oder die Verbreitung von gefälschter Pornografie mit den Gesichtern der Opfer.

Die Computersoftware zum Nachahmen von Gesichtszügen und Sprechweise hat sich so schnell weiterentwickelt, weil die Forschung an Methoden zur Mustererkennung und -erzeugung einige Hürden genommen hat. Das „deep“ in dem Wort Deepfake kommt von „deep learning“, einem englischen Begriff für lernende Maschinen. Die Software sieht das Video und hört die Stimme, erkennt die persönlichen Eigenschaften – also das Aussehen und den Klang – und erzeugt im nächsten Schritt daraus eine künstliche Version, die sie wiederum mit beliebigen Inhalten wie Gesichtsausdrücken und Sätzen füllen kann. Die Softwarepakete dafür sind ein Ergebnis der Informatikforschung. Daher sind sie kostenlos für jeden verfügbar.

Deepfake-Videos: Technik ist im Alltag angekommen

Noch vor wenigen Jahren war dagegen enormer Aufwand nötig, um das Gesicht einer Person in das Video von einer anderen Person einzufügen. Als Filme der „Star Wars“-Reihe verstorbene Schauspieler wieder auf die Leinwand brachten, galt das noch als Tricktechniksensation. Heute basteln Privatleute Filmchen, in denen Kanzlerin Angela Merkel scheinbar ihren Rücktritt erklärt. Die Stimme enthält zwischen den Sätzen noch kleine Verzerrungen, und auch Barack Obama wirkt in einem weit verbreiteten Deepfake-Video etwas wächsern. Wer die Clips ohne Misstrauen betrachtet, dürfte sie aber für echt halten.

Das ist ein weiterer Aspekt, in dem Deepfakes die Wahrnehmung grundsätzlich verändern werden. „Fake News erhalten eine neue Dimension“, sagt NTT-Experte Wollmann. Was etwa, wenn ein Video als „Eilmeldung“ auftaucht, dass ein deutsches Atomkraftwerk explodiert sei – und der Innenminister in Bild und Ton zur Evakuierung aufruft? „Eine Panik ist möglich“, so Wollmann. Es sei wichtig, dass die Allgemeinheit lerne, die Echtheit von Medien künftig noch viel mehr zu hinterfragen als heute.

Tausende Deepfakes sind bereits auf Youtube zu sehen

Derweil dienen solche Deepfakes auch der Unterhaltung. Youtube ist voll von Videos, in denen Personen vertauscht wurden. Eine ganze Bewegung hat es sich zur Aufgabe gemacht, den Schauspieler Nicolas Cage in möglichst viele Filme hineinzumogeln. Das Gesicht von Cage sitzt nun auf Youtube nicht nur auf dem Körper von James Bond, sondern auch auf dem von kleinen Kindern in der Sesamstraße.

Weil es so leicht ist, diese Videos zu erstellen, sind bereits Tausende davon online. Einige sehen erschreckend echt aus und wirken gerade dadurch besonders gruselig. Der Effekt ist so stark, weil die Fälschung nicht einfach das Gesicht umkopiert, sondern auch alle Drehungen und Regungen, jedes Lächeln und jede Zuckung einer Augenbraue mitmacht.

Der FR-Newsletter

Das Wichtigste des Tages direkt aus der FR-Redaktion per Mail: Erhalten Sie eine Auswahl der spannendsten Texte und der wichtigsten Themen, ergänzt mit Analysen und Kommentaren unserer Autorinnen und Autoren – kostenlos. Jetzt den täglichen Newsletter abonnieren unter www.FR.de/newsletter

Von Finn Mayer-Kuckuk

Das könnte Sie auch interessieren

Kommentare