Newsletter

Mit unserem Newsletter immer auf dem Laufenden.

Newsletteranmeldung

Archiv

Das Archiv bietet Ihnen ältere Ausgaben aus den Jahrgängen 2003 bis 2017 der Zeitschrift Wissenschaftsmanagement im PDF-Format kostenlos zum Download.

Zum Archiv

Themendiskussion

Diskutieren Sie unsere Themen oder schlagen Sie uns Themen für die nächsten Ausgaben vor.

Themen diskutieren
Themen vorschlagen

Aktuelle Ausgaben
Jahresband 2025
Jahresband 2025
Weg zur weltweiten Öffnung
Jahresband 2023/24
Jahresband 2023/24
Der Jahresband 2023/24 erscheint im Frühjahr 2025
Jahresband 2022
Alle 2022 online erschienenen Artikel zum Nach-Lesen
Jahresband 2021
Alle 2021 online erschienenen Artikel zum Nach-Lesen
Sonderausgabe 2020
Sonderausgabe 2020
special Archiv

Das Archiv bietet Ihnen die special Beilagen zur Zeitschrift Wissenschaftsmanagement aus den Jahrgängen 2004 bis 2013 im PDF-Format kostenlos zum Download.

Künstliche Intelligenz – Eine Bedrohung für die deliberative Demokratie?

news

Jelena Cupać und Mitja Sienknecht

Künstliche Intelligenz

Künstliche Intelligenz – Eine Bedrohung für die deliberative Demokratie?

Eine Analyse europäischer Maßnahmen zum Schutz der Demokratie

Demokratien sehen sich vielschichtigen Bedrohungen ausgesetzt. Eine zentrale und oft diskutierte Bedrohung stellen KI-gesteuerte Instrumente wie Profiling, Targeting und Desinformationskampagnen dar. Die EU ist bemüht, solche negativen Auswirkungen von KI-basierten Systemen auf die Demokratie über verschiedene Maßnahmen zu regulieren. Dieses Papier untersucht vier zentrale Instrumente der EU zur Verhinderung von negativen Auswirkungen auf die Demokratie: Verbote, Transparenz, Risikomanagement und digitale Bildung. Die Analyse zeigt, dass der Ansatz der EU zwar hilft, die demokratische Partizipation von Individuen zu schützen, aber keinen umfassenden Schutz vor einer systemischen Bedrohung für die Demokratie bietet.

Foto: Rudolf Ortner www.pixelio.de

Die Demokratien der Welt sehen sich mit komplexen Bedrohungslagen konfrontiert, die von populistischen Bewegungen über autokratische Regime bis hin zu systemübergreifenden Krisen reichen. Durch den technologischen Fortschritt in den letzten Jahren ist eine weitere potenzielle Gefahr dazu gekommen: die Manipulation sozialer Sachverhalte durch Künstliche Intelligenz (KI). KI kann definiert werden als “Systems that display intelligent behaviour by analysing their environment and taking actions—with some degree of autonomy—to achieve specific goals.” (The European Commission’s High-Level Expert Group on Artificial Intelligence 2018, 1). Im Gegensatz zu herkömmlichen digitalen Technologien, die auf festen algorithmischen Mustern basieren, stützen sich KI-Systeme auf neuronale Netze, um zu lernen, sich anzupassen und sich durch den Umgang mit großen Datenmengen weiterzuentwickeln. Der Einsatz von KI-gestützten Techniken wie Profiling, Targeting, Wahlmanipulation, Deep Fakes und Desinformationskampagnen über Social Bots und Troll-Farmen stellt die Grundlagen demokratischer Systeme auf die Probe (Kaplan 2020). Insbesondere das Aufkommen von Large Language Models (LLMs) sowie von KI-Modellen, die Bilder, Audio- und Videoinhalte generieren können, haben diese Bedrohungen angesichts des Superwahljahrs 2024 auf eine neue Ebene gehoben. Doch welche Maßnahmen werden auf politischer Ebene ergriffen, um den potenziellen Schaden durch KI-Systeme für demokratische Prozesse zu mindern?
(…)
Rechtsbasierte und systemische Schäden für die Demokratie

Rechtsbasierte Schäden für die Demokratie beziehen sich auf den Einsatz von KI-gestützten Technologien zur Verletzung individueller, kollektiver und gruppenbezogener Rechte. Diese Rechte sind in einer demokratischen Gesellschaft für die Gewährleistung einer sinnvollen Beteiligung verschiedener Stimmen und Perspektiven unerlässlich. Die Sammlung großer, personenbezogener Datenmengen und die daraus resultierende potenzielle Beeinträchtigung des Informationsumfeldes von Einzelpersonen durch KI-Systeme kann einen negativen Effekt auf die Partizipations- und Entscheidungsprozesse haben (siehe zum Beispiel den Cambridge Analytica Skandal). Ähnliches kann mit politischen Gruppen wie etwa politischen Parteien und sozialen Bewegungen geschehen. Aufgrund der massiven Verbreitung von KI-generierten Inhalten in den sozialen Medien (und anderen Online-Plattformen) kann es dazu kommen, dass ihre Stimmen entweder überhöht oder untergraben werden (Woolley/Guilbeault 2018).
(…)
Maßnahmen der EU zum Schutz der Demokratie vor Schäden durch KI-basierte Systeme

Seit Mitte der 1990er-Jahre hat die EU einen steten Strom von politischen Vorschlägen, strategischen Aktionsplänen, Verhaltenskodizes sowie Mitteilungen und Verordnungen zur Unterstützung des digitalen Wandels in den Mitgliedstaaten produziert. Auf Grundlage einer detaillierten Liste der digitalen Vorschriften und Strategien der EU als auch von Dokumenten, die sich mit dem Recht auf politische Beteiligung und der Integrität des Informationsumfelds befassen, haben wir für unsere Analyse diejenigen ausgewählt, die sich mit KI-Technologien und -Anwendungen befassen.
(…)
Verbote

Das robusteste und weitreichendste Instrument der EU ist das Verbot von Technologien, die potenziell einen negativen Effekt auf die Demokratie haben können und die gegen die Grundrechte und Werte der Europäischen Union verstoßen. Jedes der vier untersuchten Dokumente – die DSGVO, DSM, TTPA und AIA – enthält solche Verbote. Die DSGVO verbietet beispielsweise die Verarbeitung biometrischer Daten sowie Daten zu ethnischer Herkunft, politischen Meinungen, religiösen oder philosophischen Überzeugungen, Mitgliedschaften in Gewerkschaften und zur sexuellen Orientierung. Die DSM untersagt Online-Plattformen das Anzeigen von Werbung auf der Grundlage von Profiling mit Daten, die durch die DSGVO eingeschränkt sind. In ähnlicher Weise verbietet die TTPA die gezielte Ansprache von Individuen durch politische Werbung unter Verwendung von Daten, deren Verarbeitung nach der DSGVO verboten ist (zum Beispiel Microtargeting). Die AIA ordnet AI-bezogene Risiken in drei Kategorien ein: inakzeptabel, hoch und gering/minimal, wobei Systeme, die ein inakzeptables Risiko aufweisen, verboten werden. Dazu gehören etwa biometrische Identifikationssysteme, KI-Systeme, die Menschen aufgrund persönlicher Merkmale oder des Sozialverhaltens bewerten, oder Systeme, die das Risiko von Straftaten auf Grundlage von Persönlichkeitsmerkmalen bewerten.
(…)
Transparenz

Das prominenteste Instrument der EU zum Schutz der Demokratie vor KI induzierten Schäden ist die Transparenz (Jobin et al. 2019). Transparenz ist ein vielschichtiges Konzept, dessen Ziele mit verschiedenen Maßnahmen erreicht werden können, von denen jedes darauf abzielt, unterschiedliche Informationen für unterschiedliche Parteien zu unterschiedlichen Zwecken verfügbar zu machen. Es lassen sich drei Transparenzmaßnahmen in den EU-Verordnungen identifizieren: (1) Transparenz für Individuen, (2) operative Transparenz und (3) Berichtstransparenz.
(…)
Risikomanagement

Das dritte Instrument zum Schutz der Demokratie vor negativen Auswirkungen durch KI-Systeme ist das Risikomanagement. Dieses umfasst eine Reihe von Praktiken zur Bewertung des Risikos von KI-Systemen vor und nach ihrer Einführung. Vor der Einführung des Systems verlangt die Datenschutz-Grundverordnung beispielsweise die Durchführung von Folgeabschätzungen, während DSM und TTPA Risikobewertungen der jeweiligen Systeme fordern. Der AIA, der speziell auf KI-Systeme abzielt, verlangt Konformitätsbewertungen und, was für den Umgang mit potenziellen Beeinträchtigungen der Demokratie von entscheidender Bedeutung ist, eine Folgenabschätzung des Einsatzes der Systeme für die Grundrechte. Diese Risikobewertungen dienen dazu, jene Personen und Gruppen zu ermitteln, die von einem KI-System betroffen sein könnten, sowie die spezifischen Risiken zu erfassen, denen sie ausgesetzt sein könnten.
(…)
Digitale Bildung

Das vierte Instrument zum Schutz der Demokratie ist die digitale Bildung. Bildung soll die aktive Beteiligung von Bürger:innen an demokratischen Prozessen ermöglichen. So sind die digitale Bildung und die Vermittlung digitaler Kompetenzen wichtige Elemente der europäischen Digitalstrategie und der Europäischen Digitalen Dekade. Die zentrale Annahme der EU ist, dass „engaged, informed, and empowered citizens“ die beste Garantie für eine resiliente Demokratie sind (European Commission 2020, 3).
(…)
Fazit

Die Auswirkungen von KI-Technologien werden zukünftig in fast jedem Bereich der Gesellschaft zu spüren sein, vom Gesundheits- und Bildungswesen über Justiz und Strafverfolgung bis hin zum militärischen Sektor. Jeder dieser Bereiche wird sich mit seinen eigenen, einzigartigen KI-Risiken auseinandersetzen müssen, die wiederum Regulierungen und eine rasche gesellschaftliche Anpassung erforderlich machen. Wir halten eine weitere Förderung der Transparenz und der Aufklärung der Bürger:innen für fundamental wichtig, um sowohl rechtsbasierte als auch systemische Schäden für die Demokratie einzudämmen. Die Beteiligung der Zivilgesellschaft und gesellschaftlicher Interessengruppen an der Entwicklung und Umsetzung von KI-Systemen, die Entwicklung umfangreicher Medien- und Aufklärungskampagnen, um die Bürger:innen über die positiven und negativen Seiten von KI zu informieren, sowie die Erhöhung der generationenübergreifenden digitalen Bildung sind zentrale Bausteine bei dem Versuch KI-basierte Schäden einzudämmen. Nur wenn potenzielle Risiken von KI-Technologie beherrschbar gemacht werden, kann ihr Potenzial langfristig zum Nutzen demokratischer Gesellschaften ausgestaltet werden.

 

  • Der komplette Artikel ist im Onlineshop von Lemmens Medien erhältlich. Den Abonnenten der Zeitschrift Wissenschaftsmanagement steht der gesamte Beitrag in ihren Accounts zum kostenlosen Download zur Verfügung.

 

Dr. Jelena Cupać ist Postdoktorandin in der Abteilung Global Governance des Wissenschaftszentrums Berlin für Sozialforschung (WZB).

Dr. Mitja Sienknecht ist Postdoktorandin an der European New School of Digital Studies/Europa Universität Viadrina.