Klarer Blick auf falsche Bilder: Resilienz ist lernbar – auch gegen Deepfakes
Jüngst veröffentlichte die Pressestelle des Elysée-Palastes dem Sitz des französischen Präsidenten Macron eine Mitteilung, in der sie den im Netz kursierenden Falschmeldungen entgegentrat, Macron und Friedrich Merz hätten bei der gemeinsamen Reise in die Ukraine Koks konsumiert.
Die Falschmeldung ist Teil der digitalen Kriegsführung Russlands und darauf mit einer Pressemitteilung zu reagieren, zeigt, dass demokratische Institutionen dieser Methode hinterherlaufen wie Hase und Igel in der bekannten Sage.
Für diejenigen, die Deepfakes durchschauen, Muster analysieren und sich nicht täuschen lassen wollen, gibt es nun ein zweiwöchentliches Briefing namens »Informationsraum« auf dem Kanal Substack.
Darüber sprach ich in meinem Podcast KUNST DER FREIHEIT mit Tim Stark von der Gesellschaft für digitalen Ungehorsam mbH. Das Unternehmen für politische Kommunikation arbeitet interdisziplinär unter anderem für NGOs-Unternehmen, aber auch für die Bundesregierung. Nachstehend dokumentiert ist die erweiterte und ausführlichere Fassung des Gesprächs aus der Sendung vom 22. Mai 2025 (Folge 32).
BIHoff: Herr Stark, der Begriff Fake News ist seit Jahren in aller Munde und dennoch scheint es, als ob dagegen kein Kraut gewachsen ist. Sie sprechen von Deep News, von Fake News. Für diejenigen, die weniger Ahnung von den Unterschieden zwischen beiden Begriffen haben, was kann man sich denn darunter vorstellen und wie verläuft diese Methode?
Tim Stark: Der Begriff Fake News steht seit Jahren sinnbildlich für ein wachsendes Problem. Die bewusste Verbreitung von Falschinformationen, also Desinformationen mit dem Ziel, Meinungen zu manipulieren oder Vertrauen in Institutionen zu untergraben. Dabei reicht das Spektrum von Irrführenden und Überschriften bis hin zu komplett erfundenen Inhalten und fehlenden Kontexten.
Deepfakes hingegen sind eine spezielle technische Form der Manipulation, meist von Videos oder Audioaufnahmen. Mittels Künstlicher Intelligenz (KI) können hierbei Personen täuschend echte Dinge sagen oder tun, die sie in Wirklichkeit nicht gesagt oder getan haben. Voraussetzung dafür ist meist genügend authentisches Ausgangsmaterial, etwa öffentlich zugängliche Reden oder Videos von betroffenen Personen. Dementsprechend sind auch Personen des öffentlichen Lebens besonders exponiert.
Die Gefahr liegt in der Kombination: Während klassische Fake News oft schon in kürzester Zeit viral gehen, können Deepfakes künftig das Vertrauen in die Echtheit von Video-und Audiocontent grundlegend erschüttern – insbesondere in Wahlkämpfen oder Krisensituationen.
Trotz all dieser hoch-technischen Elemente und dem klaren Fokus auf dem digitalen Raum gilt es zu beachten, dass Desinformation und hybride Operationen, besonders im Playbook autoritärer Systeme, kein Novum sind. Desinformation gäbe es schon immer. Wo Geheimdienste mit konkurrierenden Zielen operieren, werden falsche Informationen platziert. Für mich ist auf der Zeitachse in diesem Kontext relevant: Sogenannte Aktive Maßnahmen des KGB vor und während des Kalten Krieges mit Operationsgebieten außerhalb der damaligen direkten sowjetischen Einflusszone.
Der Kern dieser Aktiven Maßnahmen war die sogenannte Reflexive Kontrolle. Diese zielt darauf ab, Gegner:innen durch gezielte Informationsmanipulation dazu zu bringen, Entscheidungen zu treffen, die ihren eigenen Interessen schaden. Dabei wird die Wahrnehmung des Gegners oder der Gegnerin so beeinflusst, dass die Betreffenden aus eigenem Antrieb heraus nachteilig handeln, ohne die fremde Steuerung zu erkennen.
BIHoff: Was ist aus Ihrer Sicht die krasseste Deep Fake-Geschichte, die derzeit durchs Netz läuft? Und mit welchen Themen beschäftigt sich ihr aktuelles Briefing?
Tim Stark: Das wahrscheinlich spannendste Deep Fake-Video, das wir gerade auf einer internationalen Ebene sehen können, stammt aus dem Konflikt zwischen Indien und Pakistan. Dabei handelt es sich um eine Pressekonferenz, in der über den vermeintlichen Abschuss eines Kampfjets berichtet wird.
Es ist aber tatsächlich ein KI-manipuliertes Video von besagtem Pressesprecher. Dabei handelt es sich um ein echtes Video, von einer mehrere Jahre zurückliegenden Pressekonferenz. Über dieses authentische Video einer nicht aktuellen Pressekonferenz wurde dann eine neue Voice Line – also ein mit Hilfe von KI generierter gesprochener Text - drübergelegt.
BIHoff: Kann man so einer Methode überhaupt noch Herr werden?
Tim Stark: Das ist eine sehr, sehr gute Frage. Aus meiner Sicht geht es gar nicht unbedingt um die technischen Mittel, um solche Manipulationen einzuschränken, sondern vielmehr um ein gesamtgesellschaftliches Verständnis sowohl von diesen real bestehenden Bedrohungen als auch den Akteur:innen und deren Interessen, die solche Bedrohungen schaffen bzw. davon profitieren.
Notwendig sind ein Mindset und vor allem Awareness, dass Leute im medialen Raum versuchen, uns bewusst zu täuschen. Diese Awareness herzustellen und zwar in der Breite der Gesellschaft, ist die Voraussetzung dafür, dass wir tatsächlich resilient und wehrhaft mit solchen Angriffen umgehen (können).
Denn diese Angriffe zu verhindern ist fast unmöglich. Das müssen wir uns klarmachen und deshalb unsere Energien darauf konzentrieren, zu lernen, mit diesen Bedrohungen umzugehen.
Wichtig ist mir, darauf hinzuweisen, dass die „Aktiven Maßnahmen“ des KGBs, auf denen heutige russische Operationen basieren, keine Blackbox sind. Wir können dort hineinsehen. Wir wissen bereits sehr viel darüber. Das ist wichtig zu betonen.
Kurz vor dem Zusammenbruch der Sowjetunion haben verschiedene KGB-Mitarbeitende im Gegenzug für die Flucht in den Westen unzählige interne KGB-Dokumente übergeben. Nennenswert ist hierbei speziell die Arbeit von Dennis Kux aus dem Jahr 1985: Er analysierte Dokumente und Berichte von Überläufern u.a. des ehemaligen tschechoslowakischen Staatssicherheits-Offiziers Ladislav Bittman, der in der damaligen CSSR für sogenannte aktive Maßnahmen verantwortlich war.
Aus meiner Sicht nutzen wir, die demokratischen Akteur:innen, diese verfügbare Ressource noch nicht adäquat. Das hilft gegenwärtig denjenigen, die uns schaden wollen. Andererseits ist das ein Zustand, der sich leicht ändern ließe. Wir waren damals schlauer, als wir es heute sind – aber wir können es wieder werden.
BIHoff: Das stimmt bei allen Schwierigkeiten hoffnungsvoll. Ich möchte gleichwohl noch etwas stärker herausarbeiten, über welche Akteure wir hier sprechen. Ich habe in der Anmoderation deutlich gemacht, dass Russland ein wesentlich handelnder Akteur einer solchen Deep Fake Strategie ist. Was steckt hinter deren Interesse und wie kann man sich diese Arbeit von russischen Institutionen vorstellen – vor allem aber: wer sind weitere Akteure?
Tim Stark: Auf der Akteursebene ist Russland definitiv einer der zentralen Akteure hier in Deutschland, wenn es um strategisch koordinierte Angriffe geht. Ich habe vorhin über die „Aktiven Maßnahmen“ zur „Reflexiven Kontrolle“ gesprochen, die bereits der KGB einsetzte. Aus diesem Playbook stammt der heutige russische Ansatz der hybriden Kriegsführung gegen den Westen. Lediglich für deren Verbreitung über Ländergrenzen hinweg, die Operationsführung in Echtzeit und Content Creation gibt es heutzutage neue Mittel: das Internet und die dadurch erfolgte Digitalisierung.
Weitere Akteure, die so vorgehen wie Russland, sind die unterschiedlichen autoritären Staaten, zum Beispiel China oder der Iran. Das hat schlicht damit zu tun, dass autoritäre Staaten sehr gut systemische Schwächen in demokratischen Staaten ausnutzen können.
Denn wir haben es mit einem asymmetrischen Konflikt zu tun. Demokratien sind aus gutem Grund in ihren Handlungsmöglichkeiten begrenzt durch Ethik, durch Moral und durch das Recht. Das ist sicherlich ein Problem, wenn wir auf diese hybriden Bedrohungen der Demokratie reagieren wollen. Gleichzeitig konstituieren diese Merkmale die demokratische Gesellschaft und grenzen sie gegenüber den autoritären Systemen ab.
Hinzu kommt, dass die Bedrohung nicht nur von staatlichen Akteuren ausgeht. Man braucht nicht viel Geld oder große Ressourcen, um Desinformationen herzustellen und zu verbreiten. Auch nichtstaatliche Akteure, wie Extremisten, viele aus der Verschwörungsbubble sind in dem Bereich aktiv. Sehr relevant ist die Kombination staatlicher und nichtstaatlicher Akteure. Wir bezeichnen sie als sogenannte Proxy-Akteure, die im Auftrag oder im Interesse eines Staates agieren, aber ohne eine offizielle Verbindung. Wenn man sich das bildlich vorstellen will, sind das die Art der sogenannten grünen Männchen ohne staatliches Hoheitsabzeichen, die 2014 die Annexion der Krim vollzogen, bei denen allen klar war, dass es sich um russische Truppen handelte.
Sie sind schwerer zuzuordnen, agiler und operieren oft außerhalb direkter staatlicher Kontrolle – zumindest auf dem Papier. Beispiele im digitalen Raum, wenn es um Desinformation und Einflusskampagnen geht, sind sogenannte Trollfarmen wie die ziemlich bekannte Internet Research Agency aber auch russische Söldnerfirmen wie die „Gruppe Wagner“, die nach ihrer Umbenennung als „Afrikakorps“ firmiert, aber auch kriminelle Netzwerke und Hacker-Gruppierungen. Hinzu kommen auch PR-Agenturen und nicht zuletzt auch bestimmte NGOs sowie Influencer. Ein breites Spektrum, dass immer angepasst ist an der Zielgruppe, die beeinflusst werden soll.
BIHoff: Danke für diesen systematischen Überblick, der noch einmal deutlich macht, dass gesellschaftliche Resilienz zunächst der effizientere und erfolgversprechendere Weg ist, als das Versprechen, Deepfakes verhindern zu können. Mir scheint, dass eine Gefahr auch von besonders überzeugten Aktivist:innen, seien es rechte Ideologen oder auch religiös motivierte Fundamentalisten, ausgeht, die Fake News verbreiten und zunehmend dafür auch KI einsetzen.
Wenn Sie jetzt als Gesellschaft für digitalen Ungehorsam zweiwöchentlich das Briefing namens „Informationsraum“ herausgeben, ist das nur der Tropfen auf dem heißen Stein oder die Überzeugung, dass Aufklärung der Ausweg aus selbst verschuldeter Unmündigkeit ist?
Tim Stark: Unser Briefing „Informationsraum“ nur für sich genommen, wäre sicherlich eher der Tropfen auf dem heißen Stein. Das Briefing ist aber auch nur ein Teil von unserem weiter gefassten Ansatz. Die meisten Forschungsstudien, auch die meisten Regierungskonsultationen, Working Groups sind sich sehr einig in dem Ergebnis, was wir brauchen, um resilienter gegenüber übrigen Bedrohungen, vor allem im digitalen Informationsraum zu werden: einen Whole-of-Society-Approach.
Hierbei handelt es sich – auf Deutsch gesagt – um ein Konzept aus den Internationalen Beziehungen und verwandten Fachgebieten, das darauf abzielt, unterschiedliche gesellschaftliche Gruppen einzubeziehen, um gemeinsame gesellschaftliche Ziele voranzubringen. Die Logik dahinter ist einfach: Wir können gesamtgesellschaftliche Probleme auch nur mit der Ressource der gesamten Gesellschaft angehen und lösen.
Deshalb versuchen wir als Gesellschaft für digitalen Ungehorsam mbH gerade zu erforschen, wie wir mit verschiedenen Ansprachen, verschiedenen Formaten und verschiedenen Projekten die Zukunft der politischen Kommunikation in dem Sinne, den wir hier erörtern, nutzbar machen können. Unsere Motivation ergibt sich dabei aus unserer Erfahrung im Bereich der Regierungskommunikation in Krisenzeiten. Die Art der Kommunikation, vor allem im Digitalen, hat sich in den vergangenen Jahren drastisch verändert. Desinformation und Einflusskampagnen sind hierbei nur ein Element eines multidimensionalen Spielfelds, auf dem sich Akteure bewegen. Der Kampf um die Wahrheit, die Deutungshoheit über Ereignisse und die mediale Aufmerksamkeit des Publikums ist transnational im vollen Gange.
Natürlich können auch wir die großen gesamtgesellschaftlichen Spannungsfelder unseres Landes nicht aus unserem Büro heraus allein lösen. Aber wir können und wollen einen Beitrag dazu leisten, indem wir in einem ersten Schritt herausfinden, wie wir das enorme Potential der demokratischen Gesellschaft erschließen und nutzbar machen können im Sinne des Whole-of-Society-Approachs.
Darüber hinaus geben wir für den Bereich Desinformation und digitale Bedrohungen Vorträge und Workshops für Behörden, Zivilgesellschaft und Unternehmen. An weiteren Projekten arbeiten wir gerade. Ein Podcast mit dem Titel „Und DAS glaubst du?!“ wird in Kürze auf allen gängigen Podcatchern und YouTube abrufbar sein.
Zusätzlich stellen wir fest, dass sich in diesem Feld gerade viel tut. Neue Institutionen und Organisationen bilden sich, das Interesse nimmt zu. Das Thema wird ernster genommen. Deshalb freuen wir uns immer mit neuen Partner:innen und Organisationen zusammenzukommen, um uns auszutauschen und die Ressourcen für Resilienz zu verstärken.
BIHoff: Wenn ich das in eine einfache Formel übersetzen würde, könnte das zusammengefasst heißen: Demokratie kann gewinnen, wenn sie resilient genug ist.
Tim Stark: Genau und resilient zu werden ist, glaube ich, die große Challenge, vor der wir alle stehen. Das ist kein Top-Down-Prozess, wie viele andere politische Prozesse, sondern wird ein großer gesamtgesellschaftlicher Prozess. Dem werden wir uns nicht entziehen können. Da kommen wir nicht drum herum.
BIHoff: Lieber Herr Stark, haben Sie vielen Dank für das Gespräch.