Plattformverantwortung durch unabhängige Forschung: Was ist, was fehlt, was kommen muss

Cathleen Berger

Artikel

Der Schlüssel zum erfolgreichen Umgang mit Desinformation könnte darin liegen, Angriffe auf digitale Diskurse weniger anekdotisch und stärker kontinuierlich datenbasiert aufzuarbeiten. Klingt simpel, ist in der Praxis aber mit zahlreichen Hürden verbunden. Um gravierende Lücken zu füllen, braucht es in Zukunft eine zentrale Anlaufstelle für Wissens- und Datenmanagement.

Rolle und Grenzen von Monitoring sozialer Plattformen

Im Januar 2024 deckte das Auswärtige Amt eine großangelegte Desinformationskampagne Russlands auf. Das Team der strategischen Kommunikation identifizierte über 50.000 Bot-Accounts, die automatisiert und sich wechselseitig verstärkend Falschinformationen über den Krieg in der Ukraine streuten. Seit 2022 entlarven das EU DisinfoLab,Correctiv und andere immer neue Fälle der sogenannten “Doppelgänger”-Kampagne, in welcher seriöse und weitreichenstarke Online-Angebote von Zeitungen wie Der Spiegel, Zeit Online, Le Monde und andere täuschend echt kopiert und dann durch einzelne, manipulierte Inhalte und Desinformation ausgetauscht werden. Auch wenn die URLs der Seiten variieren, sind die Täuschungen oft nicht auf den ersten Blick erkennbar, so dass die vermeintlich “seriösen”, aber falschen Artikel auf Plattformen und in Messengern mitunter reichweitenstark weiterverteilt werden.

Aufgedeckt werden solche Angriffe durch das sogenannte Monitoring digitaler Diskurse, bei dem Posts, Interaktionen oder Trends auf Auffälligkeiten geprüft werden. Ohne dieses Monitoring würden zahlreiche Angriffe auf unsere Diskurse unentdeckt bleiben – eine große Gefahr für die Qualität und das Vertrauen in unser Informationsökosystem. In den letzten Jahren gab es einen sichtbaren Anstieg an zivilgesellschaftlichen Organisationen, die Monitoring nutzen oder nutzen wollen, um so konkreter Gestaltungsvorschläge für Plattformen zu unterbreiten und Gefahren einzudämmen. So divers die jeweiligen Kontexte, so ähnlich die Forderungen nach besserem, verlässlichem und leichterem Zugang zu Plattformdaten für unabhängige Forschung: Ob CeMAS, das Institute for Strategic Dialogue, Mozilla Foundation, Democracy Reporting International, Aos Fatos, Soch Fact Pakistan, Media Monitoring Africa oder die Coalition for Independent Tech Research. Es gibt mittlerweile dutzende, wenn nicht hunderte Organisationen weltweit, die Monitoring in ihre Arbeit integrieren und helfen, Desinformationskampagnen besser zu verstehen und zu entschärfen.

Erfolge, wie die oben genannten, sind richtungsweisend – und doch sind sie nach wie vor Anekdoten. Aufklärungserfolge identifizieren einzelne Angriffe, können Botarmeen und Netzwerke aufzeigen oder für Muster in Desinformationsnarrativen sensibilisieren. Sie bleiben aber punktuell und sind in ihrer Reichweite und Geschwindigkeit strukturell begrenzt. Dies hat mehrere Gründe.

Ausgestaltung von Plattformen: Private Akteure mit öffentlicher Verantwortung

Ein zentraler Grund liegt im Spannungsverhältnis zwischen Öffentlichkeit und privatwirtschaftlichen Plattformen. In der digitalisierten Öffentlichkeit finden mehr und mehr unserer gesellschaftlichen Diskurse auf sozialen Plattformen statt, die als private Akteure einen überproportionalen Einfluss auf unsere gelebten Wirklichkeiten haben. Damit geht selbstverständlich auch eine hohe Verantwortung einher – die in den letzten Jahren immer wieder und nachdrücklich von zahlreichen Expert:innen angemahnt und eingefordert wurde. Wo Plattformen in ihren Anfängen ihre Regeln für die Inhaltsmoderation an internen Geschäftsvorgaben ausrichteten, werden heute zahlreiche Entscheidungen entweder rechtlich vorstrukturiert, beaufsichtigt oder kritisch von außen beurteilt.

Der Druck verantwortungsvoll zu handeln, ist spürbar größer geworden. Gleichzeitig besteht das Machtungleichgewicht fort: Trotz neuer Auflagen und steigender Regulierung in zahlreichen Ländern dieser Welt ist unser Einblick in die Funktionslogiken und die Datensätze von Plattformen weiterhin begrenzt. Auch deshalb ist die Bedeutung und die Notwendigkeit unabhängiger Forschung und Datenanalyse ein hochrelevantes Thema, das spätestens seit den Verhandlungen rund um das Gesetz über digitale Dienste (Digital Services Act, DSA) intensiv, auch politisch, diskutiert wird.

Desinformationen gelten laut DSA als “systemische Risiken” für die Demokratie. Der DSA verpflichtet die dominanten sozialen Plattformen, wie TikTok, YouTube, Facebook oder LinkedIn, Gefahren dezidiert entgegenzutreten. Plattformen sind angehalten, die Verbreitung von Desinformation zu unterbinden und ihre Dienste so zu designen und zu kuratieren, dass Risiken minimiert, Verletzungen nachverfolgt und Gegenmaßnahmen evaluiert werden können. Eine zentrale Rolle in der Umsetzung dieser Verpflichtungen spielen dabei zivilgesellschaftliche Organisationen und Wissenschaftler:innen. Diese sind Korrektiv, Frühwarnsystem und Impulsgeber:innen für eine gesunde Ausgestaltung digitaler Diskurse. Um diese Funktionen wahrnehmen zu können, benötigen zivilgesellschaftliche Akteur:innen Zugang zu Plattformdaten. Dieser ist in Artikel 40 des DSA geregelt – der bisher klarste Rahmen für den Datenzugang zu Forschungszwecken auf Plattformen.

Datenzugriff für Forschungszwecke: Datenschutz, Anwendbarkeit, Koordination

Trotz des vermeintlich klaren Rechtsrahmen treten in der Praxis Unstimmigkeiten und Unsicherheiten zutage. Für das Monitoring wird auf Daten zurückgegriffen, die die Plattformen ohnehin über ihre Nutzer:innen, Informationsflüsse, Interaktionen oder die Wirkung von Designelementen sammeln. Auf Basis solcher Daten können beispielsweise Netzwerke visualisiert, die Viralität von einzelnen Posts nachverfolgt und Muster von “Kommentier-Bots” und Pseudo-Accounts nachvollzogen werden.

Viele Plattformdaten sind aber auch sensibel, da sie zum Beispiel persönliche Informationen, individuelle Vorlieben oder Direktnachrichten zwischen Einzelnen enthalten. Datenschützer:innen äußern hier berechtigte Bedenken, wenn zu viele Daten gesammelt, gespeichert oder analysiert werden. Um Eingriffe in die Privatsphäre Einzelner und eine disproportionale Überwachung unserer digitalen Diskurse zu vermeiden, sind daher strenge Vorgaben für die unabhängige Forschung notwendig. Das Bewusstsein für Datenschutz und die Sensibilität von Monitoring ist gerade bei zivilgesellschaftlichen Organisationen unterschiedlich hoch und variiert oft stark je nach Kontext, nationalen Rechtstraditionen und der Dringlichkeit bzw. dem Druck, dem sich zivilgesellschaftliche Akteur:innen in unterschiedlichen Ländern dieser Welt ausgesetzt sehen. Aufgrund mangelnder Ressourcen und/oder begrenzter Kapazitäten sind Datenschutz- und Ethikberatung bei zivilgesellschaftlichen Organisationen nicht immer institutionalisiert und oft müssen einzelne Analyst:innen viele Fragen eigenständig abwägen und entscheiden.

Zudem gibt es auch rechtliche Lücken mit Blick auf den obligatorischen Zugriff auf Plattformdaten. So können sich zum Beispiel Journalist:innen, nicht institutionell-verankerte Forscher:innen und Forschungsverbünde mit außereuropäischen Partner:innen nicht direkt auf den DSA berufen. Forschende außerhalb der EU greifen daher nicht selten auf kommerzielle Marketing-Tools oder Webscraping zurück, um Analysen durchzuführen. Dies ist rechtlich schwammig und analytisch begrenzt, sowohl mit Blick auf die Vergleichbarkeit von Ergebnissen als auch die Möglichkeiten, Daten zu filtern und methodisch sauber aufzubereiten.

Darüber hinaus zeigen unsere Recherchen und Gespräche mit Expert:innen, dass jede Organisation, jeder Forscher:innenverbund ihre Fragen, das Forschungsdesign und im Zweifel auch den jeweiligen Code für die Erfassung, Auswertung und Analyse von Plattformdaten neu erarbeitet. Das heißt, nur selten wird auf bestehendes Wissen aufgebaut und jede:r setzt das jeweilige Monitoring unabhängig voneinander auf. Hier präsentiert sich ein Henne-Ei-Problem: Einerseits sind die Kapazitäten und Kompetenzen von zivilgesellschaftlichen Organisationen zu begrenzt, um langfristige, rechtssichere und miteinander verzahnte Forschung auf Basis von Plattformdaten zu betreiben, so dass sie sich auf kleinere, anekdotische Monitoringvorhaben konzentrieren. Andererseits werden ihre Ressourcen und Wirkungshebel nicht zuletzt dadurch begrenzt, dass sie nicht auf bereits vorhandenes Wissen aufbauen und sich in ihrer Arbeit ergänzen, weil die Zeit und die Kapazitäten fehlen, um sich international und kontinuierlich zu vernetzen und auf dem Laufenden zu bleiben.

Plattformen legen die Verpflichtung zum Datenzugang unterschiedlich aus

Eine weitere Hürde entsteht durch die fehlende Vergleichbarkeit zwischen den Plattformen und ihre Art die verschiedenen Rechtsvorschriften umzusetzen. Jeder Plattformanbieter setzt bestehende Rechtsvorschriften in seinem eigenen Interesse und Kontext um.

So waren die Meta-Plattformen, Facebook und Instagram, beispielsweise jahrelang über ein Tool namens “CrowdTangle” für Forschende zugänglich. Organisationen aus aller Welt konnten sich bei Meta um Zugang zum Tool bewerben. Seit ca. 2 Jahren waren Anmeldungen nicht mehr möglich und jüngst kündigte Meta die Abschaltung des Tools an. Ein neuer Zugriffspunkt, der für die Umsetzung des DSA eingerichtet wurde, begrenzt den Zugriff auf Daten der letzten drei Monate und wurde von Erstnutzer:innen für seine limitierten Optionen kritisiert. So können zwar aktuelle Entwicklungen und größere Kampagnen beobachtet, nicht aber historische oder regionale Vergleiche gezogen und Muster analysiert werden. Die deutliche Kritik seitens der Zivilgesellschaft an der Abschaltung von CrowdTangle unterstreicht zum einen die hohe Relevanz von unabhängigem, verlässlichem Monitoring für ihre Arbeit, lässt aber auch erkennen, dass viele mit dem Erlernen und Einrichten neuer Zugriffspunkte kurzfristig aufgrund mangelnder Ressourcen und Kompetenzen überfordert sind.

TikTok und YouTube, die lange Zeit für Forschende nur auf Umwegen, z.B. durch Webscraping oder durch Datenspende-Methoden, einsehbar waren, richten auf Grundlage des DSA nach und nach ebenfalls Zugriffspunkte für Forschungswecke ein. Beide sind jedoch auf ihre jeweilige Art begrenzt. So erlaubt TikTok den Zugriff ausschließlich für Forscher:innen aus den USA und der EU, maximal 10 Forschende dürfen sich in einem Verbund zusammenschließen und erste Erfahrungen deuten an, dass der Zugriff nicht verlässlich und an Stellen fehlerhaft ist. YouTube stellt sein Daten-Forschungsprogramm zwar weltweit zur Verfügung, die schiere Menge an Daten und der tägliche Zuwachs sind allerdings so groß, dass langfristige, vergleichende Studien in der Regel keine ausreichenden Serverkapazitäten zur Auswertung haben, weshalb hier anekdotische Forschung besonders präsent ist. Die Kosten für Server- und Speicherkapazitäten für langfristige Forschung sind ohnehin, nicht nur, aber insbesondere für YouTube, für zivilgesellschaftliche Organisationen oft prohibitiv.

Da jede Plattform ihren eigenen Zugang definiert, sind Recherchen über mehrere Plattformen hinweg enorm schwierig und bisher nicht standardisiert oder harmonisiert. Analysen über die Verbreitung von Narrativen und Manipulationstaktiken über Plattformen hinweg und zwischen verschiedenen Netzwerken sind so praktisch kaum bis gar nicht möglich. Entertainment auf TikTok, Shopping auf Instagram, Nachrichten auf X oder Threads – das Nutzungsverhalten ist vielfältig und langfristige Effekte von Manipulationsversuchen können wir nur verstehen, wenn wir sie erforschen.

Lücken, die es zu füllen gilt

Positiv ist: Wir wissen heute deutlich mehr über das Aufkommen von Desinformationen auf Plattformen als noch vor fünf Jahren. Und dennoch müssen bestehende Lücken dringend gefüllt werden, wenn wir über anekdotisches Wissen hinaus hin zu wirklich messbaren, evidenzbasierten Erfolgen im Umgang mit Desinformationen gelangen wollen.

Zusammengefasst lassen sich diese Herausforderungen festhalten:

  • Es fehlen standardisierte Zugriffe auf Plattformdaten. Da Plattformen privat organisiert sind, stellt jede ihre eigenen Regeln auf. Das behindert Forschung über mehrere Plattformen hinweg. Zudem sind Echtzeit-Analysen über verschiedene Regionen hinweg derzeit eng begrenzt bis nicht unabhängig möglich.
  • Journalist:innen, unabhängige Forscher:innen und insbesondere außereuropäische Forschung kommen derzeit zu kurz, was die Einordnung und Bewertung von systemischen Risiken auf sozialen Plattformen limitiert.
  • Die Kapazitäten und Kompetenzen der Zivilgesellschaft reichen aktuell noch nicht aus, um langfristige Analysen zu erstellen und damit evidenzbasierte Gestaltungsvorschläge für Plattformen zu unterbreiten. Fehlende Datenschutz- und Ethikaufsicht, zu wenig Trainingsangebote, mangelnde Koordination und Weiterentwicklung von bereits existierender Forschung sowie der begrenzte Zugang zu Vergleichsdaten und die Kosten für ausreichende Server- und Speicherkapazitäten schränken die Wirkung von unabhängigem Monitoring signifikant ein.

Die Hürden sind groß, aber nicht unüberwindbar. Angesichts der hohen Relevanz von unabhängiger Forschung und Datenanalyse für unsere digitalisierte Öffentlichkeit kann und muss sich schnell etwas ändern.

Ausblick: Eine zentrale Anlaufstelle für Wissens- und Datenmanagement

Viele Räder müssen hier ineinandergreifen: Rechtliche Nachbesserungen, Druck auf Plattformen ihre öffentliche Verantwortung auch durch harmonisierte Forschungszugänge wahrzunehmen und eine Stärkung und Aufstockung zivilgesellschaftlicher Organisationen, um ihrer Rolle als Korrektiv und Impulsgeber:in gerecht zu werden. Politische Entscheider:innen, Technologieunternehmen und Philanthropie sind gefordert.

All diese Lösungen brauchen aber auch eine verstärkte Koordination der Forschenden und deutlich mehr geteiltes Wissen, um nachhaltig und vertrauensvoll digitale Diskurse gesünder gestalten zu können. Das Bewusstsein für die Notwendigkeit und der Wille allein werden hier nicht ausreichen. Stattdessen braucht es eine zentrale Anlaufstelle für Wissens- und Datenmanagement für unabhängige Forschung zu digitalen Diskursen. Eine solche (Service-) Einrichtung müsste auf drei Ebenen als Hub fungieren: (1) als Wissensquelle, die u.a. Templates für rechtliche und ethische Fragen rund um Forschungsfragen, Datensammlung, -auswertung und –speicherung zur Verfügung stellt; (2) als Datenmanagerin, die Methoden und Ansätze für das Monitoring aufbereitet und als wissenschaftliche Treuhänderin bereinigte, vorkodierte Daten auf gemeinschaftlich genutzten Serverkapazitäten für Forschungszwecke bereithält; und (3) als Sprachrohr, die die Erfahrungen von Monitoring-Organisationen aus aller Welt sammelt und gebündelt gegenüber Plattformanbietern und politischen Entscheider:innen vertritt, um künftige Verbesserungen anzumahnen.

Mit dem Data Knowledge Hub für die Erforschung digitaler Diskurse haben wir einen ersten Piloten für eine Wissensdatenbank lanciert. Die Weiterentwicklung und Vernetzung dieses Konzepts muss und wird uns in Zukunft beschäftigen.


Cathleen Berger

Cathleen Berger

Co-Lead

Cathleen Bergers berufliche Erfahrung erstreckt sich über verschiedene Sektoren: Wissenschaft, Regierung, Zivilgesellschaft, Unternehmen und Startup. Ihre Arbeit und Forschung konzentrieren sich auf die Schnittstellen zwischen digitalen Technologien, Nachhaltigkeit und sozialer Wirkung. Sie arbeitet derzeit mit der Bertelsmann Stiftung als Co-Leiterin für Upgrade Democracy sowie den Reinhard Mohn Preis 2024 und Senior Expert für Zukunftstechnologien und Nachhaltigkeit. Darüber hinaus, berät und arbeitet sie gelegentlich mit gemeinwohlorientierten Unternehmen und Organisationen an ihren Klima- und sozialen Wirkungsstrategien.

Zuletzt verantwortete sie den B Corporation Zertifizierungsprozess eines jungen Klimastartups, initiierte und leitete Mozillas Nachhaltigkeitsprogramm, arbeitete als Referentin im Koordinierungsstab für Cyber-Außenpolitik im Auswärtigen Amt, als Beraterin mit Global Partners Digital, Forschungsassistentin in der Stiftung Wissenschaft und Politik sowie Gastdozentin an der Friedrich Schiller Universität Jena.

Follow on

Co-Lead

Share

Similar articles