Generative künstliche Intelligenz und politische Willensbildung

    Visions

Prof. Dr. Thorsten Thiel, Dr. Susanne Kailitz

Artikel

Fernsehen, Radio und die Tageszeitung waren in Vergangenheit die dominanten Medienformate für Information und Meinungsbildung. Mit dem Internet hat sich dieses Angebot immens erweitert, aber auch ineinander verschränkt. Derzeit stehen wir vor einer weiteren Veränderung, da mittels der als generativer künstlicher Intelligenz bezeichneten Verfahren eine synthetische und enorm personalisierte Form der Erzeugung und Vermittlung von Information und Kommunikation möglich wird. Was bedeuten diese Veränderung in der digitalen Öffentlichkeit für den gesellschaftlichen Diskurs?

Worum geht es?

Generative künstliche Intelligenz ist in aller Munde. Insbesondere Bild- und Textgeneratoren wie ChatGPT und Midjourney haben dazu beigetragen, dass generative künstliche Intelligenz einer breiten Öffentlichkeit zugänglich wurde. Kurz gesagt sind mit generativer künstlicher Intelligenz Anwendungen gemeint, die auf der Basis großer Sprachmodelle in der Lage sind, unterschiedliche Inhalte zu produzieren: Sie erstellen Illustrationen oder generieren Fotos, formulieren Texte, beantworten Verständnisfragen in natürlicher Sprache oder schreiben Computercode. Die aktuellen Anwendungen stellen dabei einen deutlichen Qualitätssprung gegenüber Sprachassistenten oder klassischen Chat-Bots dar.

Technisch lässt sich der Fortschritt im Bereich der generativen Künstlichen Intelligenz insbesondere auf zwei Entwicklungen zurückführen, die wiederum auf allgemeine Durchbrüche im Bereich des maschinellen Lernens aufbauen: Das sind zum einen die großen Sprachmodelle (englisch: Large language models), ein besonderer Typ neuronaler Netzwerke, der durch die Analyse sehr großer Textmengen trainiert wird und dessen Kernfunktion darin liegt, die Wahrscheinlichkeiten nachfolgender Wortsequenzen zu berechnen. Die Qualität dieser Sprachmodelle konnte zum anderen durch „Transformer“-Modelle verbessert werden, die es den neuronalen Netzen erlauben, besser auf längere Zusammenhänge und Kontexte zu achten, was etwa für die Übersetzung von Sprachen oder allgemeiner die Übertragung zwischen unterschiedlichen medialen Formen (z. B. Text zu Bild) enorm wichtig ist.

Was sind die Potentiale und Risiken?

Entscheidend für die Frage, wie sich generative künstliche Intelligenz auf Demokratie und demokratische Prozesse auswirken wird, sind vor allem die Anwendungen, die aus generativer KI hervorgehen, und die Art und Weise, wie wir diese in unserem Alltag nutzen.

Generative KI wird sich nicht auf eine einzelne Anwendung wie etwa einen Chatbot beschränkten. Tatsächlich verändert sie grundlegend, wie Menschen mit (digitalen) Maschinen interagieren. Der Kombination und Umwandlung von Informationen sind dabei im Grunde keine Grenzen gesetzt: Möglich sind sowohl assistierende Tätigkeiten wie das Auffinden, Strukturieren und Zusammenfassen von Inhalten, das Verfassen von Texten als auch die Erzeugung von Bildern oder Videos. Gleichzeitig sind transferbezogene Aufgaben wie der Vergleich oder die Synthese verschiedener Wissensbestände denkbar. Und darüber hinaus kann die Technologieauch in Kontexten eingesetzt werden, in denen Entscheidungen vorbereitet oder gefällt werden.

Das hat auch Auswirkungen auf die Prozesse der politischen Meinungs- und Willensbildung. Dabei sind vier Punkte von besonderer Bedeutung für demokratische Politik: erstens Fehlinformation und Bias, zweitens Desinformation, drittens Gatekeeping und viertens
die Interaktion von Bürger:innen und gewählten Repräsentant:innen.

Der Output ist nur so gut wie der Input

Generative KI kombiniert für die Erzeugung der erfragten „Antworten“ eine Vielzahl unterschiedlicher Quellen, indem sie aus einer enorm großen, für Menschen nicht nachvollziehbaren Fülle von Daten Bezüge herleitet. So ist sie in der Lage, strukturierte Antworten, überzeugende Bilder, echte Stimmlagen etc. zu erzeugen. Wobei nicht die Richtigkeit, sondern die Überzeugungskraft von Antworten optimiert wird, was etwa dazu führen kann, dass auch falsche Informationen mit großer Gewissheit versehen werden. Dies verbindet sich mit dem Problem des Bias, der systematischen Über- oder Unterschätzungen. Je nachdem, welche Datengrundlage zum Training der KI herangezogen wird, fällt das Risiko, diese Verzerrungen zu reproduzieren, unterschiedlich aus. Dieser Effekt kann zusätzlich verstärkt werden, sobald durch die Verbreitung synthetischer Medien diese selbst wieder Grundlage künftiger Trainingsdaten werden. So steht zu befürchten, falls hier nicht bewusst gegengesteuert wird, dass Verzerrungen und Stereotype durch generative KI dauerhaft aufrechterhalten und verstärkt werden.

Somit kann generative KI – auch ohne, dass dies von den Entwicklern:innen der Technologie beabsichtigt ist – die Menge falscher oder ungenauer, zugleich aber überzeugender Information, deutlich erhöhen. Aufgrund der hohen Reichweite ist der potentielle Schaden, der dadurch als unbeabsichtigte Nebenfolge entstehen kann, gewaltig. Die Basis gesellschaftlicher Diskurse wird so unzuverlässiger und die Wahrscheinlichkeit, dass Fehler aufgedeckt und korrigiert werden können, verringert sich. Dies ist umso mehr der Fall, wenn generative KI zur Personalisierung von Informationsumgebungen eingesetzt wird, wie dies z. B. bei persönlichen Assistenten der Fall ist, da dadurch die Möglichkeiten des Widerspruchs und des Austauschs mit anderen reduziert werden.

KI als Boost für Desinformationskampagnen

Neben diesen unbeabsichtigten Nebenfolgen des KI-Einsatzes, gibt es auch noch eine weitere, womöglich schwerwiegendere Befürchtung: Generative KI kann zu noch mehr Desinformation führen, also der Produktion von Falschinformationen mit der Absicht zu manipulieren und zu täuschen. Das kann die Balance öffentlicher Kommunikation nachhaltig stören und die Erfolgsaussichten der Regulierung öffentlicher Kommunikation unterminieren. Manipulation wird so deutlich einfacher, ressourcengünstiger und steht nun mehr Akteur:innen zur Verfügung. Wenn es möglich ist, Stimmen oder Videos künstlich zu erzeugen, wird es immer schwieriger, Falschinformation zu widerlegen. Damit wachsen die Chancen kleiner, strategisch agierender Gruppen, die demokratische Öffentlichkeit zu unterwandern und das Vertrauen in demokratische oder journalistische Akteure zu beschädigen.

Herausforderungen für die Dritte Gewalt

Eine weitere Herausforderung, vor die uns die generative KI stellt, ist indirekter: Die breite Verwendung von generativer KI kann dazu führen, dass sich die in der digitalen Transformation ohnehin schon starke Machtverschiebung von journalistischen Gatekeepern hin zu Plattformen weiter verstärkt. Ähnlich wie zuvor schon Suchmaschinen und soziale Netzwerke verändert generative KI die Art und Weise, wie wir Informationen auffinden und verifizieren. Journalistische Strukturen werden so vermeintlich überflüssig und auch die Möglichkeit, Verantwortlichkeiten zu bestimmen, nimmt tendenziell ab. Dies gilt keineswegs nur dann, wenn Journalist:innen vollständig ersetzt und die Nachrichten komplett von der KI geschrieben werden. Auch bei einer Verschränkung menschlicher und maschineller Elemente bei der Erzeugung und Aufbereitung von Informationen kann es immer schwieriger werden, im Nachhinein zu erkennen, wer für die Aussagen verantwortlich ist. Zugleich entsteht ein Wettlauf zwischen Anwendungen, die in der Lage sind, künstlich generierte oder veränderte Informationen zu erkennen, und den Möglichkeiten, diese immer perfekter herzustellen. Kritischer Journalismus, der Fakten und Quellen prüft, Aussagen hinterfragt und im Idealfall ein starkes Berufsethos besitzt, könnte dann noch stärker unter Druck geraten.

Hinzu kommt, dass die verwendeten KIs durch eine Vielzahl von Einstellungen oder spezifizierte Trainings vorjustiert werden (etwa um zu verhindern, dass die KI Selbstmorde rechtfertigt, Bombenanleitungen ausgibt oder Diffamierungen produziert). Generative KI beruht auf einer Vielzahl aktiver und kontinuierlich zu fällender Moderationsentscheidungen. Sie basiert auf Daten aus der Vergangenheit und deren Interpretation. Für letztere sind die Produzent:innen der Technologie verantwortlich, bei denen es sich aber erwartbar nur um sehr wenige, zumal transnational aufgestellte Konzerne handeln wird, sofern Datensätze und Trainingsmodelle nicht umfassend Open Source zur Verfügung gestellt werden. Dies bringt private Unternehmen, die den Großteil der digitalen Technologien entwickeln und kontrollieren, in eine sowohl dominantere als auch aktivere Gatekeeper-Rolle, als sie Redaktionen und einzelne Journalist:innen (inne) hatten.

Simulierter Austausch schafft Frust

Generative KI hat zudem Auswirkungen auf die Interaktionen von Bürger:innen und gewählten Repräsentant:innen. Die Möglichkeiten, sich direkt mit Repräsentant:innen auszutauschen, nimmt seit vielen Jahren zu – egal ob per Email oder auf dem Weg der unterschiedlichen sozialen Medien. Mit diesem digitalen Medienwandel haben sich auch die Erwartungen der Bürger:innen daran, wie schnell Politiker:innen auf Fragen, Bedürfnisse oder auch Ereignisse reagieren sollen, enorm erhöht. Generative KI birgt hier auf der einen Seite die Gefahr, dass die ohnehin begrenzten Aufnahmekapazitäten des politischen Systems überstrapaziert werden, wenn Individuen oder organisierte Interessen etwa den verringerten Aufwand für die Erzeugung von Kommunikation nutzen, um Austausch- und Beteiligungsformate zu kapern. Auf der anderen Seite besteht durch den Einsatz generativer KI in der politischen Kommunikation die Gefahr, dass der Austausch nur simuliert wird und so ohnehin vorhandene Entfremdungstendenzen verschärft werden.

Unter dem Strich

All dies lässt befürchten, dass sich die Bedingungen eines inklusiven und rationalen demokratischen Austauschs künftig verschlechtern – sofern die Ausbreitung der Technologie politisch unreguliert vollzogen wird. Dies würde auch dadurch nicht aufgefangen, dass generative KI zugleich eine Vielzahl von Möglichkeiten zur Teilhabe bereithält und für Einzelne häufig eine Ermächtigung darstellen kann, z. B. in Bildungsfragen oder durch den Abbau von Diskriminierungen. Die Probleme generativer KI erinnern nicht zufällig an den Diskurs um soziale Medien. Auch hier haben wir gesehen, dass Mis- und Desinformation zugenommen haben, Kontrollinstanzen weggebrochen sind und sich emotionale und affektivere Kommunikation verstärkt haben.

Download

Veröffentlichung herunterladen


Zum Weiterdenken

  • Albrecht, Steffen 2023: ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen. // Umfangreicher Bericht, der die Funktionsweise von Sprachmodellen gut verständlich erläutert und dann
    Anwendungsfelder und Herausforderungen aufschlüsselt.
  • Kapoor, Sayash / Narayanan, Arvind (2023): How to Prepare for the Deluge of Generative AI on Social Media // Englischsprachiger Report, der auf der einen Seite vor einer Überschätzung der negativen Folgen generativer KI insbesondere in Bezug auf Desinformation warnt, auf der anderen potentiell positive demokratische Nutzungsmöglichkeiten vorstellt.
  • Jungherr, Andreas 2023: Artificial Intelligence and Democracy: A Conceptual Framework, in: Social Media + Society 9: 3 // Gut lesbarer, englischsprachiger Überblick über den Forschungsstand zu den Veränderungen digitaler Öffentlichkeit mit Blick auf generative künstliche Intelligenz.

Prof. Dr. Thorsten Thiel

Dr. Susanne Kailitz

Share

Similar articles

  • Announcement, Data, Elections

    Herausforderungen durch Desinformation: Die Rolle von Regulierung, Journalismus und Meinungsfreiheit

    28.02.2024
  • Announcement, Community

    faktenstark in Sachsen gestartet: neue Kooperation mit Amadeu Antonio Stiftung und codetekt e.V.

    22.02.2024
  • Perspectives, Platform Governance

    Wie unterschiedlich US-amerikanische und chinesische Social-Media-Plattformen in Brasilien agieren

    20.02.2024
  • Community, Perspectives

    Wie der Westen Desinformation in Afrika missversteht

    26.01.2024