Zum Inhalt springen

Künstliche Intelligenz in Bildung, Arbeit und Gesellschaft – eine kritische Reflexion

Symbiose aus Licht und Schatten: Jun.-Prof. Dr. Maria Wirzberger und Tabea Berberena, M.A. setzen sich in kritischer Reflexion mit künstlicher Intelligenz in Bildung, Arbeit und Gesellschaft in einem Gastbeitrag für das Civic Data Lab auseinander. Der Beitrag zeigt einmal mehr, wie wichtig es ist, KI nicht allein als Alltagstechnologie, sondern als gesellschaftliche Praxis zu denken.

04. 12. 2025

Künstliche Intelligenz ist längst nicht mehr Zukunftsmusik, sondern Alltagstechnologie. Sie unterstützt uns beim Schreiben, Übersetzen, Recherchieren und auch dabei, Entscheidungen zu treffen – oft so unauffällig, dass wir sie kaum noch bemerken. Gerade deshalb lohnt es sich, KI nicht nur als technische Innovation zu betrachten, sondern als gesellschaftliche Praxis, oder als Werkzeug, das Chancen eröffnet, aber auch Fehler, Abhängigkeiten und Machtfragen mit sich bringt. Denn KI ist nie „nur“ KI. Sie ist immer auch ein Spiegel der Daten, Ziele und sozialen Kontexte, in denen sie entwickelt und genutzt wird.

Hier zeigt ein Beispiel in einem anderen unserer Blog-Beitrag, wie Daten anhand des Projekts „Förderfunke“ in einem gemeinwohlorientierten Kontext genutzt werden können.

Nehmen wir Bildung als Beispiel. KI-gestützte Systeme können Lernende individuell begleiten, durch unmittelbares Feedback, adaptive Übungsformate oder dialogische Lernsettings, die zeit- und ortsunabhängig Lernen erleichtern, zum Beispiel beim Fremdsprachenerwerb. Selbst kollaboratives Arbeiten könnte systemseitig durch eine didaktisch strukturierte Gruppenbildung und gezielte Interaktionsimpulse bereichert werden. Lehrpersonen wiederum könnten entlastet werden beim Erstellen und Prüfen von Aufgaben, in der Korrektur schriftlicher Arbeiten oder bei der Analyse von Lernständen. Sinnvoll eingesetzt schafft das Freiräume für das, was Bildung im Kern ausmacht, nämlich Beziehung, Förderung, pädagogische Diagnose und die Gestaltung motivierender Lernumgebungen. Auch auf Systemebene können KI-gestützte Technologien einen Mehrwert bieten, etwa wenn Studierende kompetenz- und interessengeleitete Kurs- und Studienempfehlungen erhalten oder eine frühe Diagnose von Lernschwierigkeiten die Bereitstellung adaptiver Unterstützung ermöglicht. Durch die Überwachung und Vorhersage von Abbruchquoten wird die Anpassung ganzer Curricula möglich und knappe Ressourcen können bedarfsgerecht bereitgestellt und verteilt werden.

Doch wo Licht ist, gibt es bekanntlich auch Schatten.

KI-Systeme sind nicht unabhängig vom Material, aus dem sie entstehen. Sie lernen aus Daten, und Daten sind nie neutral. Sie tragen gesellschaftliche Vorprägungen in sich wie historische Ungleichheiten, stereotype Zuschreibungen, blinde Flecken. Das zeigt sich besonders dort, wo KI an sensiblen Entscheidungen beteiligt ist. Bewerbungssoftware kann etwa Menschen benachteiligen, deren Lebensläufe nicht dem gelernten „Normprofil“ entsprechen. Gesichtserkennungssysteme arbeiten nachweislich ungleich zuverlässig und bestimmte Gruppen werden häufiger fehlklassifiziert, insbesondere Menschen mit dunkler Haut oder Frauen. Solche Verzerrungen sind keine Randfehler, sondern systemische Effekte datengetriebener Modelle.

Damit öffnen sich zentrale Spannungsfelder, in denen wir uns im Umgang mit KI-gestützter Technologie bewegen: Erstens die Frage nach Datenmacht. Welche Daten werden gesammelt, wer kontrolliert sie, und welche Interessen stecken in ihrer Nutzung? Zweitens die Frage nach Gerechtigkeit. Wenn KI bestehende Muster reproduziert, wird aus technologischer Effizienz gesellschaftliche Ungleichheit. Drittens die Frage nach Abhängigkeiten von der Unterstützung durch eine Technologie. Was passiert, wenn eigene Wissens- und Kompetenzlücken mit selbstgeneriertem Handeln gefüllt werden, und damit möglicherweise der Verlust eigener Fähigkeiten – als „De-Skilling“ bezeichnet – befördert wird. Viertens die Frage nach Verantwortung. Wer haftet, wenn automatisierte Entscheidungen Schaden anrichten? Entwickler*innen, Institutionen, Nutzer*innen? Und fünftens die Frage nach Vertrauen. Wenn Systeme als objektiv erscheinen, obwohl sie es nicht sind, droht ein riskanter Autoritätsbonus und mit ihm die stille Akzeptanz fehlerhafter Urteile.

Dass KI-gestützte Systeme gesellschaftliche Vorteile bringen können, ist damit nicht widerlegt. Aber es ist an Bedingungen geknüpft und steht im Einklang mit der Europäischen KI-Strategie, die sich formal-rechtlich im AI Act niederschlägt. Der hier verfolgte menschzentrierte Ansatz stellt die klare Forderung, dass KI-Systeme vertrauenswürdig sein müssen, um nutzbringend zu sein. Gerade vor dem Hintergrund der weitreichenden Einflussnahme einer Technologie, die auf unseren Umgang mit Wissen und Informationen einwirkt, Berufsbilder fundamental verändert, und selbst unsere gesellschaftlichen Strukturen beeinflusst, gilt es, potenziell unerwünschte „Nebenwirkungen“ fortwährend auf den Prüfstand zu stellen.

Was ist dazu erforderlich?

Gelingen kann dies durch die Besinnung auf das, was aus psychologischer Sicht als originär menschliche Leistung gilt: Unsere Fähigkeit zum kritischen Denken. Dem gezielten Perspektivwechsel und konstanten Infragestellen der Informationen, die an uns herangetragen werden. Auch dem Hinterfragen der eigenen Schubladen im Kopf, die uns die automatisierte Ausgabe von KI-Systemen nur zu gerne bestätigt – zeigt sie uns doch im Grunde ihren Eindruck der Schubladen auf, die sie aus all unseren Daten gewinnen konnte.

Kritisches Denken lässt sich dabei gezielt fördern: durch Impulse, das „Was wäre, wenn“ genauer zu beleuchten, durch sokratische Fragen nach dem „Wer“, „Was“ und „Wie“, oder durch ein gleich fünffach gestelltes „Warum“. Für einen balancierten Umgang mit Licht und Schatten der neuen Möglichkeiten, die der technologische Fortschritt uns bringt, sollte das unser sinnvollstes Investment sein.

Übergangswelle

Jun.-Prof. Dr. Maria Wirzberger leitet das Interchange Forum for Reflecting on Intelligent Systems an der Universität Stuttgart. Im Schnittfeld von Kognitionspsychologie, künstlicher Intelligenz und Mensch-Maschine-Interaktion beschäftigt sie sich aus einer interdisziplinären Perspektive mit der verantwortungsvollen, menschzentrierten Gestaltung technischer Systeme.

Tabea Berberena, M.A., entwickelt als wissenschaftliche Koordinatorin im Interchange Forum for Reflecting on Intelligent Systems Lehrangebote für Schulen, Hochschulen und die Industrie. Im Fokus stehen dabei besonders Kompetenzen des kritischen Denkens im Umgang mit KI- und datengestützten Systemen und ihrer gesellschaftlichen Auswirkungen.

Übergangswelle

Mehr aus dem Blog …

  • #CDL News
  • #Datenpraxis
  • #Gastbeiträge
  • #Lernen

„KI kann Beratung im Sozialen ergänzen, aber nicht ersetzen.“

Brauchen wir in Zukunft Beratung für Mensch-KI-Beziehungen? Was ist in der Beratung mit KI mit Vorsicht zu genießen? Und wie kann ich als Berater*in KI-Tools sinnvoll nutzen? Ein Gespräch mit Emily Engelhardt, Professorin für Digitale Transformation in Sozialen Handlungsfeldern und Gesellschaft, an der Fakultät für angewandte Sozialwissenschaften an der Hochschule München.
Weiterlesen
  • #CDL News
  • #Lernen

KI-Mythen entzaubert: Die Entwicklung einer Technologie im Wandel

Es war ein heißer Sommertag im Jahr 1956, als sich eine Gruppe von Wissenschaftler*innen am Dartmouth College in New Hampshire traf. Unter ihnen waren John McCarthy, Marvin Minsky und Claude Shannon – Namen, die heute als Pioniere der Künstlichen Intelligenz (KI) gelten. Ihr Ziel: Maschinen zu erschaffen, die denken können. An diesem Tag wurde der Begriff „Künstliche Intelligenz“ geboren – eine Idee, die die Welt für immer verändern sollte.
Weiterlesen
  • #CDL News
  • #Machen

KI in der Zivilgesellschaft: Freiheit als digitaler Kompass

In einer Ära, in der Künstliche Intelligenz (KI) sämtliche Lebensbereiche durchdringt, steht die Zivilgesellschaft vor einer wegweisenden Herausforderung: der verantwortungsvollen und werteorientierten Nutzung dieser transformativen Technologie. Das aktuelle Whitepaper „Freiheit als zentraler Wert für den Einsatz von KI in der Zivilgesellschaft“ veröffentlicht vom progressiven digitalpolitischen Verein D64 – Zentrum für Digitalen Fortschritt im Rahmen des Projektes „Code of Conduct Demokratische KI“.
Weiterlesen