Berlin. KI-generierte Inhalte gefährden nicht nur Wahlen. Um die Missbrauchsgefahr zu reduzieren, braucht es massive Einschränkungen. Sofort.

Vor acht Jahren, bei seinem ersten Präsidentschaftswahlkampf, musste Donald Trump sich noch die Mühe machen, Gerüchte über seine politischen Gegner selbst in die Welt zu setzen. Wer heute Unwahrheiten über einen politischen Gegner verbreiten will, legt sie ihm einfach selbst in den Mund. So geschehen in New Hampshire, wo Joe Bidens Stimme digital imitiert wurde. Mit dieser Fake-Stimme wurden dann Wähler kontaktiert und aufgefordert, der Vorwahl fernzubleiben.

Es handelt sich um einen klaren Fall von versuchter Wahlmanipulation, eine schwere Straftat. Doch der investierte Aufwand entspricht eher einer Bagatelle. Nach Aussage des mutmaßlichen Fälschers hat die Sprachaufnahme einen Dollar gekostet und 20 Minuten Zeit in Anspruch genommen. Das zeigt deutlich: Die zugrunde liegende Technik ist übermäßig mächtig und gleichzeitig völlig unterreguliert.

Robocalls von Joe Biden: Sorge um mögliche KI-Manipulation im US-Wahlkampf

weitere Videos

    Vor einem Monat hat die Firma OpenAI, die auch hinter ChatGPT steckt, Anwendungsbeispiele zu ihrem Text-zu-Video-Programm Sora vorgestellt. Einige Ergebnisse wirken wie aus einem Kinofilm, Fehler sind kaum zu erkennen. Dass es immer mehr Angebote gibt, bei denen Menschen lernen, Merkmale gefälschter Inhalte zu erkennen, ist daher zwar löblich, angesichts der immer realistischeren Ergebnisse aber verlorene Liebesmüh.

    KI-generierte Inhalte werden immer schwerer zu erkennen

    Auch das im Rahmen der Münchener Sicherheitskonferenz unterzeichnete Abkommen großer Techfirmen bleibt bisher wirkungslos. Es sind also verpflichtende gesetzliche Maßgaben notwendig. Die EU bringt dazu den AI Act auf den Weg, der greift allerdings erst in zwei Jahren vollständig. Bereits in diesem Jahr finden wegweisende Wahlen statt, daher müssen Anbieter und die internationale Politik sofort handeln. Neue Deepfake-Technologien dürfen der Öffentlichkeit erst zugänglich gemacht werden, wenn das Missbrauchsrisiko auf ein akzeptables Minimum gesenkt wurde. Auch bereits bestehende Technologien dieser Art müssen in gleichem Maße eingegrenzt werden.

    Empfohlener externer Inhalt
    An dieser Stelle befindet sich ein externer Inhalt von Youtube, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.
    Externer Inhalt
    Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

    Verlangsamt das den technischen Fortschritt? Vielleicht. Ganz sicher aber schützt es die Demokratie, deren Wesensmerkmal es ist, dass die Wählerinnen und Wähler informierte Entscheidungen treffen können. Das ist nicht mehr möglich, wenn jedes Foto, jedes Video, jeder Ton nicht nur manipuliert oder aus dem Kontext gerissen, sondern völlig frei erfunden sein könnte und gleichzeitig überzeugend echt wirkt. Der Rechtsstaat muss daher mit voller Härte auf Missbrauch KI-generierter Inhalte reagieren.

    KI-generierte Inhalte sind eine Gefahr für die Demokratie

    Zugegeben, es ist vermutlich unmöglich, Techniken, die bereits der Öffentlichkeit zugänglich waren, wieder vollständig unter Kontrolle zu bringen. Auch Russland wird weiterhin versuchen, mit gefälschten Inhalten Einfluss auf westliche Wahlen zu nehmen. Aber es wird immer Akteure geben, die die Demokratie attackieren. Und eine wehrhafte Demokratie zu sein, heißt undemokratischen Kräften den Zugang zu Waffen (auch der Manipulation) zu erschweren und die Nutzung dieser hart zu sanktionieren. Der gesamtgesellschaftliche Nutzen KI-generierter Inhalte ist überschaubar, die Gefahr unermesslich groß.

    In diesem TikTok-Video ist angeblich Bundesaußenministerin Annalena Baerbock zu sehen, die über neue Ausgaben für den Klimaschutz spricht. Es handelt sich um einen Deepfake.
    In diesem TikTok-Video ist angeblich Bundesaußenministerin Annalena Baerbock zu sehen, die über neue Ausgaben für den Klimaschutz spricht. Es handelt sich um einen Deepfake. © Tiktok/annalenas.world | Tiktok/annalenas.world

    Dass bereits heute Politikern Aussagen wortwörtlich in den Mund gelegt werden, ist nicht nur aus Gründen des Persönlichkeitsrechts nicht hinzunehmen. Es handelt sich um die langsame Erosion der Glaubwürdigkeit von Bildern und Medieninhalten. „Traue keiner Statistik, die du nicht selbst gefälscht hast.“ Dieses Zitat wird oft Winston Churchill zugeschrieben, ob er es wirklich sagte, ist ironischerweise ungeklärt. Wenn die Deepfake-Technologie nicht so schnell wie möglich eingeschränkt wird, trifft es allerdings bald auf jede Bild-, Video- und Tonaufnahme zu.