Zum Inhalt springen

Espresso-Talk: „KI und Demokratie: Zwischen Potenzial und Verantwortung“

Künstliche Intelligenz durchdringt unsere Gesellschaft in einem beispiellosen Tempo. Während die einen in ihr eine existenzielle Bedrohung für die Demokratie sehen (das „Pandora-Narrativ“), propagieren andere ihre alternativlose Notwendigkeit und stellen ethische Bedenken hintan (das „Hermes-Narrativ“). Dr. Nikolai Horn plädierte im Civic Data Lab Espresso Talk jedoch für einen dritten Weg: das „Prometheus-Narrativ“ – eine differenzierte Betrachtung, die KI als ambivalente Technologie mit Gestaltungsspielraum versteht.


16. 07. 2025

Die demokratischen Grundpfeiler im KI-Zeitalter

Zu Beginn erläuterte der Philosoph und Ethiker zunächst die Grundvoraussetzungen von Demokratie, um die Grundlage der Diskussion zu schärfen. Demokratie beruht auf fünf unverzichtbaren Grundpfeilern: Volkssouveränität, Rechtsstaatlichkeit, Gewaltenteilung, Grund- und Menschenrechte sowie freie Medien (Informationsfreiheit). Nur wenn alle diese Aspekte erfüllt sind, kann von einer funktionierenden Demokratie gesprochen werden. Horn beleuchtete systematisch, wie KI jeden dieser Bereiche beeinflusst.

Bürgerbeteiligung neu gedacht!

Im Bereich der Bürgerbeteiligung eröffnet KI integrative Möglichkeiten. Intelligente Plattformen können Diskurse moderieren, Konsens fördern und demokratische Teilhabe erleichtern. Gleichzeitig lauern jedoch Gefahren: Echokammern entstehen und verstärken sich, Manipulation, z.B. durch Mikro-Targeting, wird möglich, und letztlich stünde die Authentizität des demokratischen Diskurses auf dem Spiel.[1]

Gewaltenteilung unter digitalen Vorzeichen

Besonders spannend wird es bei der Gewaltenteilung. KI-basierte Wissensmanagementsysteme wie „Parla“ können parlamentarische Anfragen effizienter bearbeiten, die Transparenz fördern und Bürgern durch Chatbots direkten Zugang zu Informationen ermöglichen. Doch wer entscheidet, welche Aspekte eine KI als „sinnvoll“ charakterisiert? Wie entstehen Zusammenfassungen, und nach welchen Kriterien? Das Beispiel des BAMF[2], das KI zur Dialektprüfung in Vergangenheit eingesetzt hat, um die Glaubwürdigkeit von Aussagen von Migrant*innen zu bewerten, zeigt die Brisanz dieser Anwendungsmöglichkeit auf.

Rechtsstaatlichkeit im digitalen Wandel

Die Rechtsstaatlichkeit profitiert durchaus von KI-Anwendungen – etwa bei der Aufdeckung von Geldwäsche, Steuerhinterziehung, Straftaten oder der Bekämpfung von Kinderpornografie, wo KI-Systeme Ermittler*innen durch Vorab-Sichtung entlasten können.[3] Doch intelligente Videoüberwachung und mögliche Diskriminierungen durch algorithmische Entscheidungen werfen gleichzeitig weiterführende Fragen auf. Ein drastisches Beispiel lieferten die Niederlande vor einigen Jahren: Ein KI-System zur Aufdeckung von Sozialbetrug nutzte als einen Faktor Kriterien wie doppelte Staatsbürgerschaft, was zu systematischer Diskriminierung führte. Der daraus resultierende politische Skandal führte zum Rücktritt der gesamten niederländischen Regierung. Besonders problematisch außerdem: die wachsende Abhängigkeit des Staates von IT-Lösungen privater Unternehmen und die Unklarheit über Verantwortlichkeiten bei Fehlentscheidungen.

Inklusion und Teilhabe durch Technologie

KI kann weiterhin positiv zur Inklusion beitragen – durch individuelle Lernpläne, Übersetzungen in Gebärdensprache oder die Integration von Menschen mit Behinderungen ins Arbeitsleben. Projekte wie „Summ AI“, gefördert von Civic Coding, zeigen, wie Technologie Barrieren erkennen und abbauen kann.[4] Doch auch hier drohen diskriminierende Entscheidungen und die Gefahr algorithmischer Diskriminierung und Radikalisierung, etwa durch Verstärkung extremer Positionen in sozialen Netzwerken.

Zwischen Bias und Professionsethik

Ein wichtiger Aspekt, den Horn hervorhob: KI-Systeme können niemals absolut ohne Bias sein. Werteurteile der Entwickler*innen bei der Auswahl von Trainingsdaten und der Gestaltung von KI-Modellen fließen unweigerlich in die Systeme ein, was zur Replikation von Vorurteilen und diskriminierenden Entscheidungen führen kann. Besonders problematisch wird dies, wenn KI-Systeme menschliche Expertise ersetzen sollen, insbesondere wenn damit Entscheidungen über Menschen gefällt werden – etwa wie oben erwähnt, bei der Dialekterkennung zur Glaubwürdigkeitsprüfung von von biografischen Erzählungen Geflüchteter. Hier steht die Frage im Raum: Kann bei einer so weitreichenden Einschätzung die algorithmische Analyse das implizite Wissen und „Bauchgefühl“ erfahrener Fachkräfte ersetzen?

Die Wahrheitsfrage im digitalen Medienzeitalter?

Ein interessanter Aspekt am Ende des Talks war die Unterscheidung zwischen faktischer, narrativischer und normativer Triftigkeit, bzw. Wahrheit – was ist ein eindeutiger Fake oder Desinformation, und was eine legitime Meinungsäußerung mit einer möglicherweise alternativen Interpretation von Fakten? KI kann hierbei beim Fact-Checking helfen und investigativen Journalismus unterstützen – die Aufdeckung der Panama Papers mit KI-Hilfe ist ein Beispiel dafür.[5] Gleichzeitig ermöglicht sie aber auch die Erstellung von Video- und Bild-Deepfakes und die Verbreitung von fake news.

Neue Generationen mit oder ohne demokratisches Bewusstsein?

Und eine der vielleicht theoretischen, aber dennoch grundlegendsten Fragen, die Horn in die Diskussion einbrachte: Was macht es mit einer Generation, die damit aufwächst, dass grundsätzlich jede Information gefälscht sein könnte? Wie verändert sich das demokratische Bewusstsein, wenn Vertrauen in Informationen grundsätzlich erschüttert wird? Hierzu werden wahrscheinlich erst in einigen Jahren valide Antworten vorliegen.

Der Blick nach vorn: Jenseits der Desinformation

Basierend auf einer Kurzstudie mit 30 internationalen Fallbeispielen betonte Horn, dass der Fokus bei der Diskussion um KI und Demokratie nicht nur auf Desinformation liegen darf. Diese und weitere bedeutsame Herausforderungen sollten uns nicht den Blick auf die zahlreichen Chancen verstellen. Die Untersuchung zeigte außerdem: Die wenig spektakulären Anwendungen sind oft die nützlichsten. Eine Teilnehmerin ergänzte ihre Hoffnung: KI als „Supertool für superstupide Aufgaben“ kann in der Verwaltung, bei der Textverarbeitung oder anderen Routineaufgaben echten Mehrwert schaffen. Ihre Hoffnung: Menschen haben mehr Zeit für komplexe Fragestellungen und demokratische Aufgaben.

Fazit: Verantwortung statt Verdrängung

Die Diskussion machte deutlich, dass alle Aspekte demokratischer Praxis prinzipiell KI-offen sind – von Beteiligung über Deliberation bis hin zu Verwaltung, Justiz, Medien und Bildung. KI-Systeme in der Demokratie leben jedoch von nicht-technischen Voraussetzungen. Die entscheidende Frage ist folglich nicht, ob wir KI einsetzen, sondern wie wir demokratische Werte in die KI-Code-Entwicklung einfließen lassen (können). Gleichzeitig müssen wir die Zivilgesellschaft stärken, um KI-Risiken einzudämmen – beispielsweise durch den Einsatz von KI zum Schutz vor KI-generierten Fake News. Die Zukunft unserer Demokratie hängt nicht davon ab, ob wir KI nutzen, sondern WIE verantwortungsvoll wir dabei vorgehen.

Die Präsentation von Dr. Nikolai Horn im Espresso-Talk am 15. Juli im Civic Data Lab könnt Ihr hier ansehen!

 

Weitere Informationen bietet das u.a. von Dr. Nikolai Horn und Matthieu verfasste „POLICY PAPER – DEMOKRATIE UND KI“ (Herausgegeben von der Friedrich Neumann Stiftung) unter folgendem Link: a4_policy-paper_demokratie-und-ki_de-web.pdf

  • [1] Bespiele: Pol.is; Make.org, KOSMO, Converlens
  • [2] Siehe: https://algorithmwatch.org/de/dialekterkennung-bamf/
  • [3] Beispiele: „FALCON“ (Korruption), „Inspektor-KI“ (Geldwäsche), Machine Learing for Peace, ZAC NRW (Cibercrime)
  • [4] Beispiele: „ICT education service“, Kommunaler Gebärdensprach-Avatar, „Summ AI“, Google Lighthouse
  • [5] Beispiel: KI-Auswertung von 2,6 TB Daten bei Panama-Papers, KIVI, „FakeID“, „Hugging Face“, „DeFaktS“.

Zur Person:

Nach seinem Studium der Philosophie arbeitete Dr. Nikolai Horn am Institut für Öffentliches Recht der Universität Bonn und promovierte mit einer interdisziplinären Arbeit zum Grundrecht der Gewissensfreiheit. Anschließend war er unter anderem als Grundsatzreferent bei der Stiftung Datenschutz und als Project Manager bei einem der weltweit führenden IT-Beratungshäuser tätig. Nikolai befasst sich seit über 10 Jahren haupt- und nebenberuflich mit dem Themenbereich der digitalen Ethik und war von 2020 bis 2022 und ist seit 2024 wieder Leiter der AG-Ethik des gemeinnützigen Netzwerks für die Digitale Gesellschaft „Initiative D21“. Er ist seit 2025 Lehrbeauftragter der Hochschule des Bundes für öffentliche Verwaltung für den Themenbereich Digitale Ethik. Mehr unter: iRights.Lab Academy | Trainer*in


Autorin

Bild3

Stephanie Agethen (sie/ihr)

Kommunikation Kontakt in HumHub