Angriff auf die Demokratie
Deepfakes lassen sich heute mithilfe von KI-Methoden in kürzester Zeit erstellen und sind visuell wie akustisch so überzeugend, dass selbst Fachleute sie nur schwer von authentischem Material unterscheiden können. Jedem Fortschritt bei Deepfake-Detektionssystemen steht dabei ein ebenso großer Fortschritt neuer Manipulationstechniken gegenüber, sodass das Erkennen zu einem dauerhaften Katz-und-Maus-Spiel wird. Selbst spezialisierte Prüftools verfehlen unbekannte Varianten häufig, produzieren Fehlalarme und erreichen in der Praxis keine hundertprozentige Trefferquote (Müller, 2024).
Weil audiovisuelle Inhalte traditionell hohes Vertrauen genießen und sich viral verbreiten, erreichen Deepfakes die Öffentlichkeit oft lange vor Faktenchecks. Das nährt Befürchtungen vor politischem Missbrauch und einer Gefährdung demokratischer Prozesse (Pawelec, 2024).
Wahlbeeinflussung
Weltweit häufen sich Fälle, in denen Deepfakes in Wahlkämpfen eingesetzt werden – etwa diffamierende Videos in Argentinien (2023), ein Audio-Fake gegen den slowakischen Spitzenkandidaten Michal Šimečka kurz vor der Wahl (2023) oder sexualisierte Deepfakes, die den türkischen Präsidentschaftskandidaten Muharrem İnce zum Rückzug bewegten (2023). Auch bei den US-Wahlen 2024 kursierten Biden-Robocalls, Fake-Videos des Republican National Committee und KI-generierte Montagen von Kamala Harris. Obgleich kein Urnengang eindeutig gekippt wurde, zeigen die Beispiele, wie leicht sich Stimmungen in den letzten Wahlkampftagen beeinflussen lassen – insbesondere mit schwer identifizierbaren Audio-Deepfakes (Pawelec, 2024).
Vertrauensverlust
Der dauerhafte Schaden entsteht weniger durch einzelne erfolgreiche Fälschungen als durch den schleichenden Vertrauensverlust: Je öfter Deepfakes bekannt werden, desto schneller zweifeln Bürgerinnen Fotos, Videos oder Tonaufnahmen an – selbst wenn sie echt sind. Gleichzeitig können Machtinhaber belastendes Material als angebliche Fälschung abtun („"The Liar’s Dividend“), wie etwa Donald Trump 2024, als er ein Foto mit vielen pro-Harris-Anhängern als manipuliert bezeichnete. So wird die journalistische Überprüfbarkeit von Informationen und die Rechenschaftspflicht politischer Akteure massiv erschwert (Pawelec, 2024).
Ausländische Einflussnahme
Wiederholt aus dem Ausland verbreitete Deepfakes verunsichern Wählerinnen und Wähler und schwächen das Vertrauen in die Parteien. Seit dem russischen Angriff auf die Ukraine 2022 kursieren manipulierte Videos und Audiodateien in der militärischen wie geopolitischen Kommunikation; sowohl pro-russische Propagandanetzwerke als auch ukrainische Akteure nutzen diese Mittel. Ein vergleichbares Muster zeigt sich im Gaza-Konflikt, wo Deepfakes die ohnehin polarisierten Informationsräume zusätzlich destabilisieren (Pawelec, 2024).
Rufschädigung von Opposition und Zivilgesellschaft
Deepfakes dienen gezielt dem Rufmord in Politik und Journalismus. Ein bekanntes Beispiel ist die indische Journalistin Rana Ayyub, die 2018 durch manipuliertes Material diffamiert wurde. Solche Angriffe können ganze Bewegungen einschüchtern und kritische Stimmen verstummen lassen (Pawelec, 2024).
Wirkung & Ausblick
Bislang lässt sich nur selten ein direkter Einfluss einzelner Deepfakes auf Wahlergebnisse nachweisen, doch ihre Gesamtwirkung schwächt das Vertrauen in Medien, Institutionen und demokratische Entscheidungsprozesse. Mit zunehmender Qualität und Verbreitung KI-basierter Werkzeuge geraten insbesondere regionale Wahlen stärker in Gefahr – vor allem dort, wo journalistische Korrekturmöglichkeiten begrenzt sind (Pawelec, 2024).