Berlin. KI macht es einfach, Gesichter und Stimmen von Politikern zu imitieren. Für die anstehenden Wahlen kann das zur großen Gefahr werden.

Bundeswirtschaftsminister Robert Habeck (Die Grünen) befindet sich in einem gewohnten Interviewsetting. Die Mikrofone großer Fernsehsender sind auf ihn gerichtet, hinter ihm geschäftiges Treiben. Habeck hat neue Subventionen zu verkünden: 30 Kilogramm Stroh für all jene, die auf Esel, Alpaka oder Lama als klimafreundliches Fortbewegungsmittel umsteigen. Zusätzlich gibt es einen Gutschein für eine Schaufel, um die Ausscheidungen des Tieres zu entsorgen.

Das klingt absurd und wurde von Habeck natürlich nie gesagt. Aber dennoch, das ist in dem TikTok-Clip für alle klar zu sehen, steht da jemand, der exakt so aussieht wie Robert Habeck und exakt so klingt wie Robert Habeck. Erst bei näherem Hinsehen fällt auf, dass immer wieder kleine Schnitte gesetzt sind, die Lippen nicht immer synchron zum Gesagten sind und die Bewegungen der Personen im Hintergrund sich wiederholen. Für Laien im schnellen Durchklicken kaum zu erkennen. Und das ist so gewollt, das ist die Gefahr. Es handelt sich um einen sogenannten Deepfake.

Lesen Sie auch:Deepfake-Video von Kanzler Scholz sorgt für Empörung

Mithilfe dieser Technologie lassen sich Stimme und Aussehen von Personen per Künstlicher Intelligenz (KI) digital nachahmen. Schon 2018 veröffentlichte das amerikanische Portal „BuzzFeed“ ein Video, in dem Barack Obama einige ungewöhnliche Äußerungen tätigte. Wie am Ende des Videos enthüllt wird, handelte es sich um einen Deepfake, mit dem der Schauspieler Jorden Peele in den Ex-Präsidenten der USA verwandelt wurde.

Deepfakes: Schon Ex-Präsident Barack Obama wurde imitiert

Immer wieder sorgen Deepfakes für Aufsehen. Oft werden sie missbraucht, um Superstars wie Taylor Swift in pornografische Clips hineinzumontieren, eine ganz neue Form der sexuellen Belästigung. Besonders Prominente sind von diesen Fakes betroffen, denn von Ihnen gibt es viel Video- und Tonmaterial, aus dem die KI lernen kann.

Empfohlener externer Inhalt
An dieser Stelle befindet sich ein externer Inhalt von Youtube, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.
Externer Inhalt
Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

Aber auch im laufenden US-Wahlkampf sorgte ein Deepfake schon für Schlagzeilen. Die Stimme von US-PräsidentJoe Biden wurde digital kopiert. Vor der Vorwahl im Bundesstaat New Hampshire wurden dann potenzielle Wähler mit der Fakestimme angerufen und aufgefordert, nicht zur Urne zu gehen.

Deutschland erlebt 2024 ein Super-Wahljahr: Erst die Europa-Wahl, dann stimmen Menschen in mehreren Bundesländern über neue Bürgermeister und Landräte ab, dann im Spätsommer folgen die Wahlen in drei ostdeutschen Bundesländern: Sachsen, Thüringen, Brandenburg. Die in Teilen rechtsextreme AfD steht vor einem großen Triumph – und in den Sicherheitsbehörden sieht man, wie die Partei gerade in den sozialen Netzwerken besser aufgestellt ist als jeder andere politische Konkurrent. Eine digitale Welt, die in Wahlkämpfen immer wichtiger wird. Ein Raum, der sich manipulieren lässt. Auch mit Deepfakes.

Robocalls von Joe Biden: Sorge um mögliche KI-Manipulation im US-Wahlkampf

weitere Videos

    Deepfake-Einsatz auf Dresdener Demo: Staatsschutz ermittelt

    Wie das geht, zeigte zuletzt ein Vorfall in Dresden: Auf einer Demonstration wurden Audiodateien abgespielt, in denen Tagesschausprecher Jens Riewa unter anderem über die „schädlichen Folgen“ einer „zügellosen Einwanderungspolitik der Ampel-Regierung“ sprach. Die Aufnahmen waren ebenfalls gefälscht. Der sächsische Staatsschutz ermittelt wegen des Anfangsverdachts der Beleidigung, Verleumdung und Volksverhetzung.

    Lesen Sie auch: Jung und radikal: Der Nachwuchs wird für die AfD zum Problem

    Auf Anfrage dieser Redaktion teilte der Staatsschutz zudem mit, es sei davon auszugehen, dass es bei vorhergegangenen Demonstrationen schon weitere Fälle dieser manipulierten Töne gegeben hat. Andere Tagesschau-Sprecher berichten davon, wie sie mit Aussagen konfrontiert werden, die sie nie getätigt haben. Oft stammen sie aus diesen KI-generierten Videos.

    Wer die Fälscher sind, lässt sich für Polizei und Nachrichtendienste nur schwer ermitteln, Tatverdächtige finden die Beamten selten. Die Anonymität des Internets schützt auch Kriminelle. Nur die Angriffsziele der Täter geben Hinweise darauf, aus welcher Richtung die Fälschungen kommen: Meist werden Annalena Baerbock (Die Grünen) oder Robert Habeck imitiert, seltener BundeskanzlerOlaf Scholz (SPD) und Finanzminister Christian Lindner (FDP).

    Deepfake-Täter bleiben meist anonym, was sind ihre Ziele?

    Es geht gegen die Ampel-Regierung, vor allem gegen die Grünen. Baerbock und Habeck sind zu Hauptfeinden der Rechtsaußen geworden, ihr Konterfei schmähen Demonstranten auf Bauern-Protesten, auf sogenannten Montagsdemonstrationen, auf denen auch Verschwörungsideologen mitlaufen. Und auch die AfD nimmt immer wieder die Grünen ins Visier.

    Vor allem die beiden Grünen-Politiker Annalena Baerbock und Robert Habeck werden Ziel der Deepfake-Attacken. (Archivfoto)
    Vor allem die beiden Grünen-Politiker Annalena Baerbock und Robert Habeck werden Ziel der Deepfake-Attacken. (Archivfoto) © DPA Images | Bernd von Jutrczenka

    Darüber, wie groß die Gefahr ist, dass Deepfakes Einfluss auf Wahlkämpfe in Deutschland nehmen könnten, herrscht in der Forschung Uneinigkeit. Christian Hoffmann, Professor für Kommunikationsmanagement an der Universität Leipzig, sagt, für Aussagen über mögliche Einflüsse auf das Wahlverhalten sei es noch zu früh. Politische Deepfakes gebe es noch sehr selten, sie würden in der Regel im öffentlichen Diskurs schnell als solche offenbart.

    Dennoch hätte die Entwicklung und Verbreitung von KI-Technologien zur Erstellung und Bearbeitung von Bildern und Videos das Potenzial, die Landschaft der öffentlichen Meinungsbildung und den Informationsfluss online signifikant zu verändern, erklärt Edda Humprecht, Professorin für Digitalisierung und Öffentlichkeit an der Universität Jena. „Diese Technologien ermöglichen die Produktion hochrealistischer Inhalte, die kaum von authentischen zu unterscheiden sind, was die Gefahr von Desinformation und manipulierten Nachrichten erhöht“, so Humprecht weiter.

    Auch deutsche Wahlen stehen im Fokus von Deepfake-Machern

    In den Sicherheitsbehörden nimmt man die Deepfakes ernst – und ist doch auch oftmals ratlos, wie Strafverfolger am besten dagegen vorgehen können. Im Bundesinnenministerium trifft sich regelmäßig die „AG Hybrid“, Fachleute verschiedener Behörden analysieren sogenannte „hybride Bedrohungslagen“, also Desinformationskampagnen, die von russischen Nachrichtendiensten gezielt in Deutschland gestreut werden. Darunter fallen auch Deepfakes.

    Screenshot aus einem Fake-Video mit Olaf Scholz: Verbreitet wurde es vom „Zentrum für politische Schönheit“.
    Screenshot aus einem Fake-Video mit Olaf Scholz: Verbreitet wurde es vom „Zentrum für politische Schönheit“. © ZFPS/Youtube | ZFPS/Youtube

    Der Umgang mit den digitalen Fälschungen ist komplex: „Um Desinformation effektiv zu bekämpfen, müssen wir sowohl deren Verbreitung eindämmen als auch die Menschen dazu befähigen, Falschinformationen selbst zu erkennen“, so Sabrina Heike Kessler vom Institut für Kommunikationswissenschaft und Medienforschung der Universität Zürich. „Bildungsinitiativen sollten darauf abzielen, das Bewusstsein für die Existenz und die Erkennungsmerkmale künstlich erzeugter Inhalte zu schärfen“, fordert Humprecht.

    Große Tech-Firmen wollen gemeinsam gegen KI-Fakes vorgehen

    Wer möchte, kann sich auf einer Website des Fraunhofer-Instituts darin üben, Audio-Deepfakes zu erkennen. Aber auch die Plattformen sind gefragt. Im Rahmen der diesjährigen Münchener Sicherheitskonferenz verpflichteten sich große Tech-Firmen wie Google, Meta, Microsoft und OpenAI zu einer Zusammenarbeit, um die Verbreitung gefährlicher KI-Inhalte einzuschränken. „Da in diesem Jahr so viele wichtige Wahlen stattfinden, müssen wir unbedingt verhindern, dass die Menschen durch KI-generierte Inhalte getäuscht werden“, so Nick Clegg, Präsident für Global Affairs bei Meta.

    Lesen Sie auch: Ex-BND-Agent: So agieren Putins Spione in Deutschland

    Tatsächlich versieht Meta Bilder, die mit KI-Generatoren erstellt wurden, bereits automatisch mit einem Wasserzeichen. Wie zuverlässig die Erkennung bei Bildern ist, die nicht durch den Meta-eigenen Generator erstellt wurden, ist jedoch unklar. Eindeutig ist: Die Gefahr durch Deepfakes lässt sich am besten durch Maßnahmen zur Prävention und Aufklärung eindämmen.

    Fördern könnte man diese auch durch das von Bundesfamilienministerin Lisa Paus (SPD) angestrebte Demokratiefördergesetz. Es wurde bereits vor einem Jahr im Bundestag präsentiert, darüber abgestimmt wurde bis heute nicht. Doch die Wahlen rücken immer näher und Deepfakes und KI-generierte Inhalte werden immer realistischer.