KI als Werkzeug für mehr Teilhabe – aber auch neue Ungleichheiten
KI-Systeme bieten durchaus Potenzial, gesellschaftliche Teilhabe zu fördern. Sprachsteuerung und Bilderkennung können Menschen mit Behinderungen neue Möglichkeiten eröffnen, Übersetzungstools Sprachbarrieren abbauen und datenbasierte Analysen Benachteiligungen sichtbar machen. Doch die Realität ist komplexer: Die positiven Effekte von KI sind ungleich verteilt und können bestehende Ungleichheiten sogar verstärken. Diskriminierende Algorithmen im Personalwesen, bei der Vergabe von Sozialleistungen oder in der Strafverfolgung zeigen, wie gravierend die Folgen ungerechter KI-Systeme sein können.
Zudem ist der Zugang zu KI-Technologien und die Fähigkeit, diese kritisch zu nutzen, nicht für alle Menschen gleichermaßen gegeben. Die sogenannte „digitale Kluft“ droht sich zu vertiefen: Während einige von den Möglichkeiten der KI profitieren, bleiben andere aufgrund fehlender Kompetenzen oder Ressourcen außen vor. Gerade für zivilgesellschaftliche Organisationen stellt sich die Frage, wie sie angesichts dieser Herausforderungen einen ethisch vertretbaren Umgang mit KI finden können.
Vier Thesen zu KI & Gerechtigkeit
Das White Paper formuliert vier Thesen, die als Leitfaden für einen gerechten Umgang mit KI dienen:
- Literacy und Kompetenzen: KI-Kompetenz – oder „AI Literacy“ – ist die Grundlage, um Chancen und Risiken von KI-Technologien einschätzen zu können. Dazu gehört nicht nur das technische Verständnis, sondern auch die kritische Auseinandersetzung mit ethischen, rechtlichen und gesellschaftlichen Fragen. Eine differenzierte Bewertung, wann und wie KI sinnvoll eingesetzt werden kann, ist essenziell. Dabei sollte stets geprüft werden, ob KI das passende Werkzeug für die jeweilige Aufgabe ist oder ob andere Lösungen zielführender wären.
- Zugang und Zugänglichkeit:
Gerechtigkeit verlangt, dass alle Menschen Zugang zu den Vorteilen von KI haben. Dies betrifft nicht nur die technische Infrastruktur, sondern auch die Vermittlung von Kompetenzen. Ohne gezielte Förderung droht die digitale Spaltung weiter zuzunehmen und bestehende Machtstrukturen zu verfestigen.
- Diskriminierung:
KI-Systeme können bestehende Vorurteile und Diskriminierungen verstärken, wenn sie auf verzerrten Daten oder einseitigen Wertvorstellungen basieren. Um dem entgegenzuwirken, ist eine konsequente Anwendung menschenrechtlicher Standards und die Berücksichtigung struktureller Benachteiligung notwendig. Vielfalt in der Entwicklung und Anwendung von KI muss aktiv gefördert werden.
- Nachhaltigkeit:
Die Entwicklung und Nutzung von KI ist mit erheblichem Ressourcen- und Energieverbrauch verbunden. Besonders betroffen sind Regionen, die ohnehin schon unter den Folgen des Klimawandels leiden. Auch die häufig unsichtbare Arbeit von sogenannten Clickworker*innen, die Inhalte kategorisieren oder Daten bereinigen, wirft Fragen sozialer Gerechtigkeit auf.
Handlungsmöglichkeiten für die Zivilgesellschaft – was bedeutet das für uns?
Was bedeutet das für zivilgesellschaftliche Organisationen? Sie stehen vor der Herausforderung, gesellschaftlichen Mehrwert gegen potenzielle negative Konsequenzen abzuwägen. Ein informierter und kritischer Umgang mit KI ist dabei ebenso wichtig wie die Bereitschaft, eigene Prozesse und Strukturen zu hinterfragen. Die Förderung von Daten- und KI-Kompetenzen innerhalb der Organisationen ist eine zentrale Voraussetzung, um die richtigen Fragen stellen und fundierte Entscheidungen treffen zu können.
Transparenz, Teilhabe und regelmäßige Überprüfung
Gerechter KI-Einsatz erfordert Transparenz: Nur wenn nachvollziehbar ist, wie KI-Systeme funktionieren und auf welchen Daten sie basieren, können ihre Entscheidungen überprüft werden. Teilhabe bedeutet, dass Betroffene in die Entwicklung und Anwendung von KI einbezogen werden und echte Mitbestimmungsrechte erhalten. Da Gerechtigkeitsvorstellungen einem ständigen Wandel unterliegen, ist zudem eine kontinuierliche Reflexion und Anpassung der eingesetzten Technologien notwendig.
Fazit: KI als Gestaltungsaufgabe für eine gerechte Gesellschaft
KI ist kein Selbstzweck, sondern ein Werkzeugkoffer – und wie jedes Werkzeug kann sie zum Guten oder zum Schlechten eingesetzt werden. Für die Zivilgesellschaft liegt die Herausforderung darin, KI so zu gestalten und zu nutzen, dass sie zu mehr Gerechtigkeit beiträgt, statt Ungleichheiten zu verschärfen. Das erfordert Mut zur Auseinandersetzung, Offenheit für neue Kompetenzen und die Bereitschaft, Verantwortung zu übernehmen. Nur so kann KI zu einem Motor für eine gerechtere, demokratischere und nachhaltigere Gesellschaft werden.
Am White Paper „KI und Gerechtigkeit: Vier Thesen für die Zivilgesellschaft“ waren Vertreter*innen von 15 zivilgesellschaftlichen Organisationen beteiligt, darunter der Arbeiter-Samariter-Bund (ASB), die Arbeiterwohlfahrt (AWO), CorrelAid e. V. für das Civic Data Lab sowie die LAG Selbsthilfe Rheinland-Pfalz. Das Projekt wurde vom digitalpolitischen Verein D64 – Zentrum für Digitalen Fortschritt koordiniert und im Rahmen des Projekts „Code of Conduct Demokratische KI“ vom Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend gefördert.