Cathleen Berger, Charlotte Freihse, Katharina Mosene, Matthias C. Kettemann, Vincent Hofmann

Potenziale von kleineren Plattformen: Was können wir von ihnen lernen?

Impulse #2
  • 1. Was sind kleine Plattformen und worin besteht ihr Potenzial?

    Die wissenschaftliche und öffentliche Auseinandersetzung mit Plattformen konzentriert sich in weiten Teilen auf die großen digitalen Plattformen der Branche. Diese stehen deshalb auch im Zentrum von Regulierungsbestrebungen (wie z. B. dem Gesetz über Digitale Dienste auf EU-Ebene). Woran es aber mangelt, ist eine Debatte über Plattformen abseits von Facebook, TikTok und Co. Denn: ein Blick auf die kleineren Plattformen lohnt, da sich auf ihnen nicht nur die Moderation von Inhalten besser beobachten lässt, sondern sie auch spannende und erfolgversprechende Experimentierräume für demokratische Innovationen in Bezug auf Platform Governance darstellen.

    Doch welche Plattformen gelten überhaupt als “klein”? Eine umfassende systematische und vergleichende Erhebung zu kleinen und mittleren Plattformen existiert bisher nicht.  Indes lohnt der Blick auf kleinere Plattformen, weil sich bei ihnen neue, kreative, kundennahe und inklusive Ansätze zur Ausgestaltung von Moderationsverantwortung finden. Beispielsweise gibt es , die vielversprechend für eine faire und demokratischere Balance der Redefreiheit möglichst Vieler und der Interessen der Plattformbetreiber:innen scheinen.

    Bestehende rechtliche Regelungen wie das Netzwerkdurchsetzungsgesetz (NetzDG) oder die besonderen Verpflichtungen des Gesetzes über Digitale Dienste (engl. Digital Services Act, DSA) für sehr große Online-Plattformen (engl. very large online platforms, ) greifen nicht für Plattformen mit geringeren Nutzer:innenzahlen. Darüber hinaus ist die Landschaft der kleinen und mittleren Plattformen sehr heterogen. Sie reicht von Nachbarschaftsforen wie nebenan.de über die Frage-Antwort-Plattform GuteFrage.net und LGBTQIA+-Netzwerke wie planetromeo bis hin zu alternativ aufgebauten . Weitere Beispiele lassen sich im politischen Raum finden. So nutzte u. a. die Piratenpartei eine eigene Plattform, mit der sie sowohl ihre Debatten und Positionen organisierte als auch den eigenen, überdurchschnittlich hohen Transparenzansprüchen genügen wollte. Auf der Plattform fanden sich daher Transkripte, Sitzungsprotokolle und Gesetzesentwürfe.

    Kleinere Plattformen bieten oft einen Ort für interessengebundenen Austausch; einen kleinen geschützten Bereich, in dem sich unbehelligt von Konkurrenz aufgehalten, ausgedrückt und entfaltet werden kann. Sie sind damit kleiner, weil sie thematisch spezifisch oder ortsgebunden sind. Was bedeutet diese Vielfalt für die Gestaltung der Plattformen und lassen sich Erkenntnisse verallgemeinern und erfolgreiche Moderationsansätze skalieren?

  • 2. Inhaltsmoderation und Gestaltungsansätze von kleineren Plattformen

    Bisherige Forschung hat gezeigt, dass kleinere Plattformen für die Inhaltsmoderation auf die Einbindung der eigenen Community setzen. Je nach gewähltem Umfang der Beteiligung kann dies von einzelnen Moderationsentscheidungen über einen konkreten Inhalt bis hin zur Gestaltung der Nutzungsregeln (Community Guidelines) alle Schritte der Inhaltsmoderation umfassen. Dies steht im Gegensatz zu den von großen Plattformen praktizierte Moderationsansätzen, die in der Regel technisch unterstützt sind und von großen Kontingenten an Vollzeit-Servicemitarbeiter:innen gestemmt werden. Kleinere Plattformen haben meist ein ureigenes Interesse daran, die Moderationsregeln und -praxis an die Vorstellungen und Wünsche ihrer Community anzupassen. Ihr Erfolg besteht darin, dass sich die (relativ) kleine Anzahl an Nutzer:innen auf der Plattform wohlfühlt und diese somit weiterhin nutzt. Vor diesem Hintergrund haben wir zwei Hypothesen formuliert, die wir gemeinsam mit ausgewiesenen Expert:innen reflektiert haben:

    1. Menschliche bzw. händische Moderation im Austausch mit der eigenen Community schafft eine hohe Identifikation mit den auf der Plattform geltenden Regeln und mehr Akzeptanz für gesetzte Normen. Das Einbeziehen Aller in die Regelsetzung führt so nicht nur zu besseren Moderationspraktiken, sondern zu weniger Verstößen, da Nutzer:innen sich stärker mit den Moderationsregeln identifizieren.
    2. Kleinere Plattformen passen ihre Richtlinien und Moderationsregeln freiwillig an Regulierungsvorgaben für große Plattformen an. Sie tragen dadurch zum Verständnis und der erwarteten Durchsetzung von vorgeschriebenen Maßnahmen bei.

    Diese Hypothesen führen zu vier zentralen Fragen:

    1. Wie gewinnen wir einen strukturierten Überblick über etablierte Content-Governance-Regeln und -Strategien auf kleineren Plattformen?
    2. Welche Methoden der Inhaltsmoderation, die kleinere Plattformen erfolgreich umsetzen, lassen sich auch auf große Plattformen übertragen?
    3. Welche Rolle spielen diese Plattformen im demokratischen Diskurs? Gibt es dort Best Practices, in denen auch marginalisierte Gruppen und deren Bedarfe sichtbar werden?
    4. Können kleine Plattformen durch ihre Ansätze und Strategien die Durchsetzung von Regulierung beeinflussen?

    2.1 Content-Governance auf kleineren Plattformen: Was wir wissen und was (noch) nicht

    Kleinere Plattformen sind vielfältig und sowohl in ihrer Ausgestaltung als auch inhaltlichen Ausrichtung sehr divers. Sie schaffen daher Kommunikationsräume, von denen sowohl öffentliche Ansätze an die Plattformregulierung als auch die großen Plattformen lernen können. Während auf Basis des DSA die sehr großen Online-Plattformen, die in die Zuständigkeit der europäischen Kommission fallen, bereits identifiziert wurden, fehlen bislang Übersichten zu allen weiteren Plattformen. Die kleineren Plattformen gehören aktuell dem Zuständigkeitsbereich der nationalen Koordinationsstellen für Digitale Dienste (engl. DSC) an. In Deutschland ist eine Erhebung der digitalen Dienste seitens der Bundesnetzagentur (BNetzA), die die Rolle des Koordinators übernehmen wird, bereits in Planung. Einige Beispiele:

    Beispiel 1: Adhocracy+

    Liquid Democracy e.V. ist ein interdisziplinäres Team, das demokratische Kultur in der Mitgestaltung für jeden selbstverständlich machen möchte. Hierzu werden unterschiedliche Ansätze verfolgt: die Entwicklung von Tools wie adhocracy+, die Gestaltung digitaler Partizipationsprozesse in Zusammenarbeit mit öffentlicher Verwaltung, Politik und Zivilgesellschaft sowie Forschungsprojekte (z.B. KOSMO in Kooperation mit der Heinrich-Heine-Universität Düsseldorf).

    • Die Plattform Adhocracy+ wird seit 2019 betrieben. Über 300 Organisationen nutzen die Plattform, es wurden bereits 700 Beteiligungsprojekte mit ca. 12.000 Nutzer:innen durchgeführt. Die Daten sind kostenfrei und öffentlich auf GitHub einsehbar. Die zehn auf der Plattform zur Verfügung gestellten Beteiligungsmodule reichen von einfachem Brainstorming, über Umfragen und interaktive Veranstaltungen bis zur Strukturierung von Debatten. Die durchführenden Organisationen können den Kreis ihrer Teilnehmenden – und Moderator:innen – selbst bestimmen und sind verantwortlich für das, was in den Modulen passiert.
    • Im Vergleich zu den VLOPs wird auf Adhocracy+ deutlich weniger Hassrede beobachtet, was daran liegen könnte, dass jede Organisation selbst über die Gestaltung ihrer Diskussionsräume entscheidet und Räume damit in sich konsistenter sind. Besonders positiv scheint sich eine aktivierende Moderation von Inhalten Hier kommt es darauf an, in Interaktion mit den Beiträgen von Nutzer:innen zu treten, Fragen zu stellen, Feedback zu geben und mitunter auch besonders konstruktive Beiträge für alle Nutzer:innen hervorzuheben. Das Ganze muss transparent gestaltet sein und hat – im großen Unterschied zu den VLOPs – nicht das Ziel, die Verweildauer auf der Plattform zu erhöhen, sondern zum thematischen Austausch zu animieren. Dies ist ohne Frage arbeitsintensiv und erfordert eine hohe Integration von Moderator:innen mit dem jeweiligen Diskussionsraum.

    Beispiel 2: gutefrage.net

    Die 2006 gegründete deutschsprachige Frage-Antwort-Plattform misst 70.000 neue Beiträge pro Tag. Insgesamt 13 Menschen arbeiten in der Inhaltsmoderation, wobei immer drei pro Schicht im Einsatz sind und von 8:00-24:00 Uhr eine Moderation sicherstellen.

    • Auf der Plattform wird Inhaltsmoderation als komplementärer Vier-Säulen-Ansatz (1) Jede:r Nutzer:in kann alles melden. (2) Festangestellte Moderator:innen erhalten alle zwei Monate eine Schulung. (3) Nutzermoderator:innen, die besonders viele Beiträge melden und eine hohe Erfolgsquote haben. (4) Mittels technischer Vorsortierung werden Beiträge markiert, die mit hoher Wahrscheinlichkeit gemeldet werden. Hier kommt ein Algorithmus zum Einsatz, der auf Basis von Daten über vergangene, gelöschte Beiträge prognostiziert, ob ein Beitrag gegen Community-Regeln verstößt.
    • Dieses Vorgehen wurde mit der Zeit und im Austausch mit der Community entwickelt und mit Blick auf notwendige Ressourcen kontinuierlich verfeinert. Während die Nutzer:innen-unterstützte Moderation grundsätzlich gut funktioniert, stellen vor allem tiefe Diskussionen oder aktuelle Entwicklungen hier und da besondere Herausforderungen dar.

    Beispiel 3: nebenan.de

    Auf der 2015 gegründeten Plattform Nebenan.de geht es primär um den Austausch von Dienstleistungen, die den Aufbau und Zusammenhalt von Nachbarschaften fördern. Bei aktuell 2,6 Millionen Nutzer:innen, arbeiten derzeit vier Personen (in Voll- und Teilzeit) als Inhaltsmoderator:innen, die gemeldete Inhalte händisch sichten. Das Meldeaufkommen ist vergleichsweise gering und liegt unter 1 Prozent der Inhalte auf der Plattform.

    • Die Plattform hat das klare Ziel, den Zusammenhalt von Nachbarschaften zu stärken und in dem Zusammenhang das Wohlbefinden ihrer Communities zu fördern. Vor diesem Hintergrund konnte die Plattform ihre Moderationspraktiken schnell für aktuelle Ereignisse wie z. B. die Corona-Pandemie oder den Angriffskrieg auf die Ukraine adaptieren und hat hier vergleichsweise strikte Regeln vorgegeben, die den Raum für nicht-nachbarschaftsrelevante Themen begrenzt haben.
    • Künftiges Potenzial könnte sich für die Plattform aus technisch-unterstützer Moderation ergeben und insbesondere als Vorwarnungsmechanismus eine Rolle spielen. In solchen Fällen würden die Nutzer:innen noch einmal fragt, ob sie bestimmte Inhalte wirklich veröffentlich möchten und zur Nachbarschaft passen.

    Der Blick auf diese drei Beispiele von kleineren Plattformen zeigt zwei Dinge auf: Zum einen ist mehr Forschung notwendig, um vor allem systematische Überblicke über gute Praktiken und bestehende Herausforderungen zu gewinnen. Zum anderen besteht großes Potenzial, von den bereits existierenden Praktiken in Bezug auf Inhaltsmoderation zu lernen, diese noch weiter zu optimieren und hinsichtlich ihres Transferpotentials für große Plattformen zu untersuchen.

    2.2 Inhaltsmoderation auf kleineren Plattformen: Auf die Großen übertragbar?

    Wir würden hier gern eine klare Antwort mit einer Liste an Empfehlungen für die großen Plattformen geben. In unseren Diskussionen wurde aber deutlich, dass es keine “One Size Fits All”-Übertragbarkeit geben wird. Vier Ideen möchten wir jedoch hervorheben:

    1. Nutzer:innenmoderation: Der DSA sieht in Artikel 22 vor, dass Online-Plattformen die technischen Voraussetzungen für die Meldungen von “vertrauenswürdigen Hinweisgebern” bereithalten müssen. Diese Trusted Flagger nehmen so eine besondere Rolle im vom DSA vorgesehenen System der Inhaltsmoderation ein. Dabei stellen diese aus Sicht der kleineren Plattformen nur eine von vielen Möglichkeiten dar, die Zivilgesellschaft in die Moderation miteinzubeziehen. Inhaltsmoderation erfordert in aller Regel Kontextwissen und die Erfahrungen kleinerer Plattformen zeigen, dass Diskurse als gesünder und konstruktiver wahrgenommen werden, wenn Nutzer:innen oder die Community in die Inhaltsmoderation mit einbezogen werden.Ein Baustein, von dem Moderationsansätze der großen Plattformen profitieren könnten. Die Inhaltsmoderation wird in solchen Modellen entlang verschiedener Stufen oder Grade von Involviertheit, Verantwortungsbereitschaft und Verpflichtung organisiert. So können Nutzer:innen ehrenamtlich lokal verankerte Gruppen oder Themen moderieren und beispielsweise über aktivierende Moderation, Situationen deeskalieren und konstruktive Beiträge positiv herausstellen. Gleichzeitig erinnern wir an unseren ersten Impuls zum Fediverse, in dem ehrenamtliche Strukturen ebenfalls diskutiert wurden. Dies hat Vorteile, geht aber auch mit einem hohen Bewusstsein für die Problematiken von Ehrenämtern einher: eine geringe Repräsentanz marginalisierter Gruppen, mangelnde Ressourcen, Trainings und benötigte Prozesse für Aufsicht und Konfliktlösung, um nur ein paar zu nennen.
    2. Technische Unterstützung bzw. teil-automatisierte Moderation: Sobald Inhalte automatisiert erfasst, gefiltert oder kategorisiert werden, zieht dies bestimmte rechtliche Auflagen nach sich. Dies kann für kleinere Plattformen Hürden mit sich bringen. Nichtsdestotrotz deuten Pilotprojekte auf ein Potenzial für technische Unterstützung bei der Inhaltsmoderation hin, die mitunter eine gute Ergänzung für große Plattformen darstellen. So kategorisiert beispielsweise der Prototyp des Tools KOSMO Kommentare in vier Stufen und nimmt so eine Vorsortierung mit Hilfe von Künstlicher Intelligenz vor.Innerhalb dieser automatisierten Vorsortierung können Kommentare, die als moderationswürdig markiert werden, auf der Plattform blockiert werden – und werden erst wieder sichtbar, nachdem ein:e Moderator:in den Post freigibt. Moderator:innen soll es so vereinfacht werden, einzelne Beiträge durchzugehen und mit weniger Druck zu entscheiden, was freigegeben, was blockiert und was gelöscht wird.Ähnliche Vorsortierungs-Tools werden auch von anderen Plattformen eingesetzt, die ihre Algorithmen auf Basis von früheren Moderationsentscheidungen auf der eigenen Plattform trainieren. Zentral für die Entwicklung solcher Tools ist die gezielte Erfassung von Gründen für eine Entscheidung, so dass Klassifizierungen transparent und nachvollziehbar sind – und bspw. auch neue Entwicklungen wieder aufgegriffen werden können. Aufgrund der Dynamik von demokratischen Diskursen ist indes weitgehend konsensfähig, dass eine Kategorisierung nur technisch-unterstützt, nicht in der Entscheidung komplett automatisiert werden sollte. Die Rolle von menschlichen Moderator:innen bleibt in der Entscheidung zentral.
    3. Richtlinien für aktuelle Entwicklungen: Die kleineren Plattformen sind in ihren Methoden zur Inhaltsmoderation vielfältig und kreativ. Häufig entwickeln sie ihre Systeme an den Bedürfnissen ihrer Nutzer:innen bzw. Community entlang und adaptieren diese rasch auf aktuelle Entwicklungen (z.B. Wahlen, Covid 19-Pandemie, Angriffskrieg auf die Ukraine).Richtlinien zu solchen Ereignissen entstehen durchaus innerhalb von wenigen Tagen, sobald Kontroversen auftauchen. Kurze Wege unter den Plattformbetreiber:innen oder eine hohe Bereitschaft in der Community proaktiv und schnell auf Ereignisse zu reagieren, sind hier hilfreich. Dieser Bottom-Up-Approach könnte von großen Plattformen für Gruppen, lokale Angebote oder ähnliches nutzbar gemacht werden.
    4. Unterscheidung von pädagogischen Angeboten und Moderation: Wenn es um pädagogische Angebote wie Unterstützung bei Deradikalisierung, die Abwendung von Suizidgefahr oder die Identifizierung entwicklungsschädlichen Nutzer:innenverhaltens geht, ist es zentral dies nicht als Moderationsleistung einzustufen bzw. die entsprechende Verantwortung den Moderator:innen aufzubürden. Es braucht eine gesunde, aufmerksame und auch aktivierende Diskussionskultur, um solche Angebote unterbreiten zu können.Werden Inhalte auf (großen) Plattformen zu stark technisch vorsortiert, fallen mitunter Beiträge durch das Raster, die wichtige pädagogisch-wertvolle Fragen stellen oder in Diskussionen eingreifen. Hier liegt eine Stärke von Community-basierten Ansätzen, die ein höheres Kontextbewusstsein aufweisen.

    2.3 Das Potenzial kleinerer Plattformen für den demokratischen Diskurs

    Wie oben aufgezeigt, bieten kleinere Plattformen durch ihre Spezialisierung ein großes Potenzial für einen lokal oder thematisch begrenzten Diskurs. Das Gleichgewicht zwischen Meinungsfreiheit und unerwünschten Inhalten wird auf jeder dieser Plattformen individuell austariert.

    Nichtsdestotrotz werden auch auf kleineren Plattformen Diskurse geführt, die entweder Bezug auf gesamtgesellschaftliche Diskurse nehmen oder direkten Einfluss darauf haben. Dies zeigt sich insbesondere im Vorfeld von politischen Ereignissen wie anstehenden Wahlen. Einzelne kleinere Plattformen testen wirksame Methoden, um beispielsweise problematische Muster, Trolling, Bots oder ähnliches auf ihren Plattformen zu erkennen und diesen entgegenzuwirken. Bisher handelt es sich hier allerdings um Einzelbeispiele; ein strukturierter Austausch oder eine Weitergabe von Erfahrungen erfolgt bislang nicht.

    Kleinere Plattformen würden sicher davon profitieren, wenn Synergien besser gebündelt und wechselseitiges Lernen gefördert werden. Vorstellbar wären z.B. der Austausch von Codes, Maßnahmen wie Alerting System bei Logins, Mustererkennung oder ähnliches. Gerade im nationalen Raum oder zwischen Plattformen im gleichen Sprachgebiet scheint das Potenzial groß, um demokratisch eingebettete Good Practices im Umgang mit sich schnell verändernden Ereignissen zu entwickeln, auszutauschen und zu evaluieren. Denn: spezialisierte Plattformen tragen nicht nur zum demokratischen Diskurs bei, sondern gestalten diesen innerhalb ihrer Communities auch entscheidend mit.

    2.4 Kleinere Plattformen: Regulierung und Implementierung

    Kleinere Plattformen werden von politischen Akteuren bisher nur vereinzelt wahrgenommen und sind in der Folge im Regulierungsdiskurs stark unterrepräsentiert. Darüber hinaus fehlt es ihnen an politischem Einfluss.

    Dies kann dazu führen, dass sie bei wenig sorgfältiger Normengestaltung Moderations- oder Rechenschaftspflichten umsetzen müssen, die sie aufgrund der dezentralen bzw. nutzer:innenbasierten Moderation nicht einfach leisten können. Ähnliches gilt für Nachweis- und Kontrollpflichten, die bei großen Plattformen Sinn machen, bei kleineren aber lähmend wirken können und zur Schließung von Geschäftszweigen geführt haben bzw. führen können.

    Die Mitsprache von kleineren Plattformen bei Regulierungsfragen und der Gestaltung einer effektiven Umsetzung von Plattformpflichten ist in der Folge unabdingbar. Der DSA ist bereits beschlossen und befindet sich in der ersten Phase seiner Umsetzung. Die Mitsprache von kleinen Plattformen muss schnell bei den jeweiligen nationalen Koordinationsstellen eingefordert werden, um ihre Perspektive und ihre Bedürfnisse auf Umsetzungsebene konstruktiv integrieren zu können.

    2.5 Beobachtungen und Empfehlungen für die Inhaltsmoderation auf allen Plattformen, klein und groß

    Unser Austausch mit den Expert:innen im Workshop und darüber hinaus hat uns spannende Einblicke in alle vier Bereiche unserer Fragen gegeben. Die Landschaft ist divers, die Perspektiven durchaus kontrovers und der Diskurs engagiert und entwicklungsoffen. Trotz all der Vielfalt lassen sich Beobachtungen und Empfehlungen für die Zukunft von Platform Governance ableiten: sowohl zu den bekannten Beispielen von kleineren Plattformen als auch zur Übertragbarkeit auf große Plattformen, ihr Potenzial für einen demokratischen Diskurs und den Einfluss kleinerer Plattformen auf Regulierung und Implementierung. Hier die aus unserer Sicht wichtigsten Elemente für die Gestaltung von Inhaltsmoderation:

    • Nuancierung: Im Bereich von kleineren Plattformen braucht es eine Nuancierung der Regeln. Es ist gut, dass kleinere Plattformen weniger tiefgreifende Vorgaben zu erfüllen haben. Gleichzeitig bleibt wichtig, zu beobachten, welches Risiko den jeweiligen Plattformregeln mit Blick auf die Verletzung von Grundrechten innewohnt. Hierfür sind Transparenzpflichten richtig und zielführend, allerdings muss in der Bewertung beachtet werden, dass Inhaltsmoderation, die Nutzer:innen mit einbezieht, anderen Regeln und Logiken folgt. Um es konkret zu machen: Die Transparenzberichte aller Plattformen müssen u. a. Angaben zur Häufigkeit von gemeldeten, blockierten, gelöschten und wiederhergestellten Beiträgen machen. Bei kleineren Plattformen zeigt sich, dass Entscheidungen häufiger rückgängig gemacht werden, wenn eine Vielzahl von Nutzer:innen an der Moderation mitwirken. Das heißt: es muss genau abgewogen werden, wo die Balance zwischen Beteiligung und Transparenz liegt. Nur so lässt sich sicherstellen, dass ein demokratisch gestalteter Prozess nicht als Mangel an der Qualität der Moderation gewertet wird.
    • Sichtbarkeit und Ansprechperson: Es sollte mindestens eine Ansprechperson für kleinere Plattformen geben, die für die Funktionsweise und Bedürfnisse diverser Plattformen sensibilisiert ist. Ob die Rolle vom DSC, in Deutschland der BNetzA, oder zugeordneten Referent:innen ausgeübt wird, ist nachgeordnet. Wichtig ist anzuerkennen, dass der DSA sehr viel Arbeit für die kleineren Plattformen bedeutet und gar zu Stillstand in der technischen Entwicklung führen kann, wenn zu viele Ressourcen gebunden werden. Diese:r zentrale Ansprechpartner:in könnte sich zudem stärker mit Themen wie reaktiven Richtlinien zu Ereignissen wie der Pandemie, dem Ukrainekrieg oder ähnlichem auseinandersetzen. Hier würden gerade kleinere Plattformen davon profitieren, wenn Richtlinien plattformübergreifend entwickelt und rechtlich abgesichert würden, um den individuellen Ressourcenaufwand zu reduzieren.
    • Verantwortung und Protokolle zur Konfliktlösung: Solche Mechanismen werden teilweise unter- oder gestützt vom Community Management, indem Nutzer:innen mit besonderer Funktion die Community direkt an der Konfliktlösung beteiligen. Ziel ist, ein Gefühl von Verantwortung und Identifikation für und mit der Plattform bei den Nutzer:innen zu fördern. Zudem wird oft lokal, global und sprach- und kontextsensitiv gearbeitet und somit auch zwischen verschiedenen Perspektiven und Interessen vermittelt. Ein interessantes Beispiel ist hier das Fediverse, das quasi eine hybride Plattform darstellt: Das Fediverse wird dezentral moderiert und kann so zu den Good Practices der kleineren Plattformen beitragen. Gleichzeitig hat das Fediverse das höchste Potenzial, aufgrund seiner Interoperabilität zu einer sehr großen Plattform in Nutzer:innenzahlen anzuwachsen.
    • Beratungs- und Unterstützungsstellen: Mit steigendem Regulierungsanspruch und wachsendem Bewusstsein für die Bedeutung von Inhaltsmoderation steigt auch der Ressourcenbedarf – auf allen Plattformen. Gerade kleinere Plattformen würden davon profitieren – und könnten ihrem Anspruch, spezialisierten Communities zu dienen, besser gerecht werden, wenn Beratungs- und Unterstützungsstellen fest etabliert und staatlich gefördert würden. Hier könnte Rechtsbeistand angeboten, Richtlinien entwickelt und ein Austausch von Prozesserfahrungen und -erfolgen zwischen kleineren Plattformen organisiert werden. Mitunter steht auch zur Diskussion, Tools und gut laufende technisch-unterstützte Methoden, als freie und offene Software kostenfrei für die kleineren Plattform zur Verfügung zu stellen.
    • Stärkung des Berufsbildes Inhaltsmoderation: Die Diskussion zeigt, dass händische Moderation unersetzlich bleibt, um Kontexten und sich schnell ändernden Nuancen gerecht zu werden. Während technische Maßnahmen unterstützen können, bleibt die Verantwortung insbesondere auch für aktivierende Inhaltsmoderation oder ein pädagogisch sensibles Eingreifen bei den Moderator:innen. Das bedeutet zum einen, dass wir einen wachsenden Bedarf an ausgebildeten Inhaltsmoderator:innen sehen und zum anderen, dass das Berufsbild deutlich mehr Sichtbarkeit und Wertschätzung erfahren muss. Eine Forderung, die auch vom Berufsverband für Community Management formuliert wird und von bereits bekannten höchst kritikwürdigen Arbeitsbedingungen von Moderator:innen auf großen Plattformen untermauert wird.

    Eine spannende Frage, die für uns offenbleibt, ist diese: Wann ist die Grenze erreicht, an der das Zusammenspiel zwischen automatischer und händischer Moderation nicht mehr funktioniert?

    Eine Idee, die wir mit Blick darauf nicht abschließend diskutieren konnten, ist die der Plattformräte. Hier zeichnen sich interessante Möglichkeiten und Spannungsverhältnisse ab, denen es gilt, genauer nachzugehen. In unserem nächsten Impulspapier werden wir uns diesem Ansatz daher explizit widmen. Lässt sich mit diesem Konzept eine ausgewogene Balance zwischen Community-basierten Moderationsansätzen und globalen Diskursen finden?

  • 3. Was gilt es noch über kleinere Plattformen zu wissen?

    Im Folgenden findet sich eine Übersicht mit Leseempfehlungen rund um Small Tech und damit verbundene Beobachtungen bzw. Entwicklungen – wir nehmen auch gern weitere Hinweise entgegen.

  • Teilnehmer:innen der Diskussion am 16. Mai 2023

    Impulsgebende:

    • Christina Dinar, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut
    • Luca Thüer, Liquid Democracy e.V.

    Expert:innen:

    • Benjamin Fischer, Alfred Landecker Stiftung
    • Josefa Francke, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut
    • Daniela Heinemann, nebenan.de
    • Jerome Trebing, Amadeu Antonio Stiftung
    • Felix Sieker, Bertelsmann Stiftung
    • Falk Steiner, freier Journalist
    • Sven Winter, gutefrage.net

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert