Superwahljahr 2024: Ein Superjahr für Desinformation?

Cathleen Berger, Charlotte Freihse

Artikel

2024 gab es mehr als 70 Wahlen weltweit. In fast allen kam es zu Versuchen, mit Desinformationen Einfluss auf den Wahlausgang zu nehmen. In mehr als der Hälfte der Fälle kamen KI-generierte Inhalte zum Einsatz. Was sagen diese Zahlen über den Zustand unserer Demokratien?

Nie zuvor waren binnen eines Jahres so viele Menschen weltweit aufgerufen zu wählen. In Deutschland gaben die Bürgerinnen und Bürger auf Kommunal-, Landes- und EU-Ebene ihre Stimme ab, in den USA, Indien, Mexiko und weiteren Staaten entschied die Bevölkerung über neue Präsident:innen. In Zeiten von Klimakrise, Kriegen, Populismus und Polarisierung drohte dieses Superwahljahr auch zu einem Superjahr für Desinformation zu werden – eine Gefahr, die auch das Weltwirtschaftsforum in seinem globalen Risikobericht eindrücklich hervorhob. Der Bericht identifizierte Desinformation als das zentrale Risiko im Jahr 2024 und verwies insbesondere auf das Manipulationspotenzial von Wahlperioden. Wir haben die Daten zu 78 angesetzten Wahlen zusammengetragen, recherchiert, wo und wie Desinformationen zum Einsatz kamen, und reflektiert, welche Lehren sich daraus für die Zukunft ziehen lassen.  

Desinformation ist global, KI (noch) nicht 

Die gesammelten Daten zeigen: Desinformationen wurden in 95 Prozent der Wahlen gestreut. Urnengänge in Europa machten da keine Ausnahme. So war die Wiederwahl der moldauischen Staatspräsidentin Maia Sandu im Oktober und November einer massiven Desinformationskampagne ausgesetzt. Anfang Dezember musste die erste Runde der rumänischen Präsidentschaftswahlen dann sogar annulliert werden, nachdem auf mehreren Plattformen politische Wahlwerbung (und Desinformation) lanciert, aber nicht als solche deklariert wurde.  

Hinweise auf den Einsatz Künstlicher Intelligenz (KI) finden sich bei etwas mehr als der Hälfte aller Wahlen. Während die Zahlen selbst eine Übermacht an Manipulationsversuchen suggerieren und Medien immer wieder den Hype um die Gefahren von KI-generierten Inhalten aufgreifen, ist alles andere als klar, ob und inwieweit solche Desinformationskampagnen tatsächlich verfangen. Eine tiefere, systematische Aufarbeitung und Langzeitstudien fehlen bisher. Viele Berichte rekurrieren vor allem auf Anekdoten und beschreiben einzelne gefälschte Videos oder manipulierte Sprachnachrichten – durchaus mit hohem Nachrichtenwert, wenn beispielsweise in Großbritannien  oder Belarus KI-Kandidaten auf der Wahlliste stehen. Inwieweit solche Inhalte in der Breite wirken und das Vertrauen von Menschen in Informationen grundsätzlich schwächen, bleibt (bisher) unklar.  

Nicht alles ist KI und KI ist nicht immer gleich Fake  

Das Beispiel von KI-Kandidaten deutet es bereits an: Künstliche Intelligenz taucht häufig auf, aber der öffentliche Diskurs über den Einfluss von KI bleibt oft unscharf. Begriffe werden verwässert, und es entsteht der Eindruck, dass alles „KI“ sei. Dabei ist KI nicht gleich Fake. Ein Fake nicht gleich ein Deep Fake. Und nicht jedes ‚Cheap Fake‘ – also audiovisuelle Fälschungen mittels konventioneller Software – dient der Manipulation. 

Was genau zählt als KI-generierte Manipulation und wo beginnt Unterhaltung, die als solche gekennzeichnet ist? Spätestens seit der argentinischen Präsidentschaftswahl 2023, die von der New York Times als „erste KI-Wahl“ bezeichnet wurde, steht fest, dass KI die Verbreitung von Desinformation grundlegend verändert – in Argentinien, weil KI der Wahlwerbung diente. Auch in Rumänien geht es um politische Werbung und das effektive Durchsetzen von Transparenzauflagen. Ein tieferes Verständnis über diese Dynamiken erfordert langfristiges, unabhängiges Monitoring und detaillierte Analysen, die über oberflächliche Risikobewertungen hinausgehen. 

Hinzukommt: KI wird nicht nur als Werkzeug für Desinformation eingesetzt, sondern auch für Gegenmaßnahmen – was zentral ist, um mit dem Tempo und der Diversität der Angriffe mitzuhalten. So kann es vorkommen, dass in der Wahlberichterstattung zu Mosambik der Einsatz von KI zur Sprache kommt, es im Kern aber um eine KI-gestützte Plattform zum Schutz von Wahlintegrität geht. 

Wahlbeteiligung im Schnitt niedrig, Rechtsruck ein westlicher Trend 

Zahlreiche Stimmen konstatieren, dass das Wahljahr 2024 global einen weiteren Rechtsruck bedeutete. Unsere Recherchen konnten hierfür Belege in 13 Fällen finden, jedoch nur in drei Ländern außerhalb Europas und der USA. Der Rechtsruck ist somit vor allem ein westlicher Trend. 

Vielmehr fällt die insgesamt niedrige Wahlbeteiligung ins Auge, die im weltweiten Durchschnitt bei nur 57,8 Prozent lag. Die Spanne liegt dabei bei 16,3 Prozent auf den Komoren bzw. 98 Prozent in Ruanda –beide jeweils die Extremvarianten mit Fragzeichen zur Freiheit des Prozesses.  Vergleichszahlen zu vorherigen Wahlperioden sind schwer zu finden, und regionale Unterschiede sind signifikant. Klar scheint: Demokratische Institutionen müssen viel mehr bieten als nur Wahlen, um Menschen mitzunehmen. 

Geopolitische Narrative: Russland, China, Machtverhältnisse 

Während westliche Länder vor allem Russland als Urheber von Desinformation im Fokus haben, zeigt die Recherche, dass viele Staaten Afrikas, Asiens und Lateinamerikas zunehmend durch Narrative geprägt werden, die eine engere Anlehnung an China fördern. Diese Diskrepanz in der Wahrnehmung verdeutlicht einen systemischen Konflikt, in dem Desinformation als Werkzeug genutzt wird, um geopolitische Lagerbildung zu verstärken. Der westliche Blick in vor allem eine Richtung riskiert eine verzerrte und kurzsichtige Wahrnehmung. Denn die Frage, wie diese Narrative langfristig die globalen Machtverhältnisse und Informationsökosysteme beeinflussen, erfordert dringend tiefgreifende und kontextualisierte Forschung.  

Trends und Ausblick

Die Polarisierung von Diskursen ist ein langfristiger und tiefgreifender Trend. Themen wie Krieg, Migration, Klimakrise, religiöse Konflikte und Genderidentitäten werden gezielt instrumentalisiert, um gesellschaftliche Spaltung voranzutreiben. Als Frühwarnsystem für solche Methoden braucht es ein umfassendes und langfristiges Monitoring. Berichte zeigen, dass Desinformation zur Beeinflussung von Wahlen oft frühzeitig gestreut wird – beispielsweise sieben Monate vor den Wahlen in Belgien oder ein halbes Jahr vor den Wahlen in El Salvador. Der projektbezogene Ansatz vieler Forschungs- und Förderinstitutionen, der sich häufig auf den Zeitraum drei Monate vor bis drei Monate nach einer Wahl beschränkt, greift dabei zu kurz. Es bedarf einer zweigleisigen Strategie: erstens ein langfristiges, unabhängiges Monitoring zur Erkennung und Analyse von Entwicklungen und Trends und zweitens eine schnelle Reaktionsfähigkeit, die Analysen in akuten Situationen wie Wahlen und Krisen ermöglicht. Darüber hinaus darf nicht aus dem Blick geraten, dass es nicht die eine, sondern sehr viele Plattformen zur Verbreitung gibt. Zwar dominiert TikTok in Wahrnehmung und Berichterstattung. Doch auch kleinere Alternativen wie Mastodon oder BlueSky gilt es, im Auge zu behalten.

Die Datengrundlage für unsere Bilanz basiert auf einer einwöchigen Datensammlung und konzentriert sich auf die Aufbereitung und Auswertung von Zahlen, nicht auf eine tiefgreifende Analyse einzelner Wahlen. Wer über die Anzahl der Wahlen stolpert: diese ist so lebendig, wie (im Idealfall) die Demokratien selbst. So wurden angekündigte Wahlen verschoben (Ägypten, Guinea-Bissau, Mali, Ukraine) oder auch vorgezogen (Frankreich, Japan, Iran). Zudem schränken sprachliche Barrieren den Zugang zu Informationen ein, da wir Berichte in den jeweiligen Landessprachen leicht übersehen haben können. Wer Hinweise auf Ergänzungen oder weitere Daten hat, kann sich gern bei uns melden.


Referenzen mit Blick auf Desinformation und KI-Einsatz:


Cathleen Berger

Cathleen Berger

Co-Lead

Cathleen Bergers berufliche Erfahrung erstreckt sich über verschiedene Sektoren: Wissenschaft, Regierung, Zivilgesellschaft, Unternehmen und Startup. Ihre Arbeit und Forschung konzentrieren sich auf die Schnittstellen zwischen digitalen Technologien, Nachhaltigkeit und sozialer Wirkung. Sie arbeitet derzeit mit der Bertelsmann Stiftung als Co-Leiterin für Upgrade Democracy sowie den Reinhard Mohn Preis 2024 und Senior Expert für Zukunftstechnologien und Nachhaltigkeit. Darüber hinaus, berät und arbeitet sie gelegentlich mit gemeinwohlorientierten Unternehmen und Organisationen an ihren Klima- und sozialen Wirkungsstrategien.

Zuletzt verantwortete sie den B Corporation Zertifizierungsprozess eines jungen Klimastartups, initiierte und leitete Mozillas Nachhaltigkeitsprogramm, arbeitete als Referentin im Koordinierungsstab für Cyber-Außenpolitik im Auswärtigen Amt, als Beraterin mit Global Partners Digital, Forschungsassistentin in der Stiftung Wissenschaft und Politik sowie Gastdozentin an der Friedrich Schiller Universität Jena.

Follow on

Co-Lead

Charlotte Freihse

Charlotte Freihse

Project Manager

Charlotte Freihse ist Projekt Managerin im Projekt „Upgrade Democracy“ der Bertelsmann Stiftung und beschäftigt sich dort vor allem mit Platform Governance und Desinformation sowie den Auswirkungen digitaler Technologien auf öffentliche Meinungsbildung und Diskurs. Vor ihrer Zeit in der Stiftung war sie freie Mitarbeiterin in der Nachrichtenredaktion des Norddeutschen Rundfunks (NDR). Parallel dazu war sie Forschungsassistentin im europäischen Forschungsprojekt NETHATE und entwickelte mit der Universität Jena und mit Das NETTZ ein Kategorisierungssystem für Interventionsmaßnahmen gegen online Hassrede. Charlotte hat einen Master in Friedens- und Konfliktforschung mit einem Fokus auf digitalen Technologien in Konflikten sowie Friedensprozessen.
Follow on

Project Manager

Share

Similar articles