Künstliche Intelligenz in Bildung, Arbeit und Gesellschaft – eine kritische Reflexion
04. 12. 2025
Künstliche Intelligenz ist längst nicht mehr Zukunftsmusik, sondern Alltagstechnologie. Sie unterstützt uns beim Schreiben, Übersetzen, Recherchieren und auch dabei, Entscheidungen zu treffen – oft so unauffällig, dass wir sie kaum noch bemerken. Gerade deshalb lohnt es sich, KI nicht nur als technische Innovation zu betrachten, sondern als gesellschaftliche Praxis, oder als Werkzeug, das Chancen eröffnet, aber auch Fehler, Abhängigkeiten und Machtfragen mit sich bringt. Denn KI ist nie „nur“ KI. Sie ist immer auch ein Spiegel der Daten, Ziele und sozialen Kontexte, in denen sie entwickelt und genutzt wird.
Nehmen wir Bildung als Beispiel. KI-gestützte Systeme können Lernende individuell begleiten, durch unmittelbares Feedback, adaptive Übungsformate oder dialogische Lernsettings, die zeit- und ortsunabhängig Lernen erleichtern, zum Beispiel beim Fremdsprachenerwerb. Selbst kollaboratives Arbeiten könnte systemseitig durch eine didaktisch strukturierte Gruppenbildung und gezielte Interaktionsimpulse bereichert werden. Lehrpersonen wiederum könnten entlastet werden beim Erstellen und Prüfen von Aufgaben, in der Korrektur schriftlicher Arbeiten oder bei der Analyse von Lernständen. Sinnvoll eingesetzt schafft das Freiräume für das, was Bildung im Kern ausmacht, nämlich Beziehung, Förderung, pädagogische Diagnose und die Gestaltung motivierender Lernumgebungen. Auch auf Systemebene können KI-gestützte Technologien einen Mehrwert bieten, etwa wenn Studierende kompetenz- und interessengeleitete Kurs- und Studienempfehlungen erhalten oder eine frühe Diagnose von Lernschwierigkeiten die Bereitstellung adaptiver Unterstützung ermöglicht. Durch die Überwachung und Vorhersage von Abbruchquoten wird die Anpassung ganzer Curricula möglich und knappe Ressourcen können bedarfsgerecht bereitgestellt und verteilt werden.
Doch wo Licht ist, gibt es bekanntlich auch Schatten.
KI-Systeme sind nicht unabhängig vom Material, aus dem sie entstehen. Sie lernen aus Daten, und Daten sind nie neutral. Sie tragen gesellschaftliche Vorprägungen in sich wie historische Ungleichheiten, stereotype Zuschreibungen, blinde Flecken. Das zeigt sich besonders dort, wo KI an sensiblen Entscheidungen beteiligt ist. Bewerbungssoftware kann etwa Menschen benachteiligen, deren Lebensläufe nicht dem gelernten „Normprofil“ entsprechen. Gesichtserkennungssysteme arbeiten nachweislich ungleich zuverlässig und bestimmte Gruppen werden häufiger fehlklassifiziert, insbesondere Menschen mit dunkler Haut oder Frauen. Solche Verzerrungen sind keine Randfehler, sondern systemische Effekte datengetriebener Modelle.
Damit öffnen sich zentrale Spannungsfelder, in denen wir uns im Umgang mit KI-gestützter Technologie bewegen: Erstens die Frage nach Datenmacht. Welche Daten werden gesammelt, wer kontrolliert sie, und welche Interessen stecken in ihrer Nutzung? Zweitens die Frage nach Gerechtigkeit. Wenn KI bestehende Muster reproduziert, wird aus technologischer Effizienz gesellschaftliche Ungleichheit. Drittens die Frage nach Abhängigkeiten von der Unterstützung durch eine Technologie. Was passiert, wenn eigene Wissens- und Kompetenzlücken mit selbstgeneriertem Handeln gefüllt werden, und damit möglicherweise der Verlust eigener Fähigkeiten – als „De-Skilling“ bezeichnet – befördert wird. Viertens die Frage nach Verantwortung. Wer haftet, wenn automatisierte Entscheidungen Schaden anrichten? Entwickler*innen, Institutionen, Nutzer*innen? Und fünftens die Frage nach Vertrauen. Wenn Systeme als objektiv erscheinen, obwohl sie es nicht sind, droht ein riskanter Autoritätsbonus und mit ihm die stille Akzeptanz fehlerhafter Urteile.
Dass KI-gestützte Systeme gesellschaftliche Vorteile bringen können, ist damit nicht widerlegt. Aber es ist an Bedingungen geknüpft und steht im Einklang mit der Europäischen KI-Strategie, die sich formal-rechtlich im AI Act niederschlägt. Der hier verfolgte menschzentrierte Ansatz stellt die klare Forderung, dass KI-Systeme vertrauenswürdig sein müssen, um nutzbringend zu sein. Gerade vor dem Hintergrund der weitreichenden Einflussnahme einer Technologie, die auf unseren Umgang mit Wissen und Informationen einwirkt, Berufsbilder fundamental verändert, und selbst unsere gesellschaftlichen Strukturen beeinflusst, gilt es, potenziell unerwünschte „Nebenwirkungen“ fortwährend auf den Prüfstand zu stellen.
Was ist dazu erforderlich?
Gelingen kann dies durch die Besinnung auf das, was aus psychologischer Sicht als originär menschliche Leistung gilt: Unsere Fähigkeit zum kritischen Denken. Dem gezielten Perspektivwechsel und konstanten Infragestellen der Informationen, die an uns herangetragen werden. Auch dem Hinterfragen der eigenen Schubladen im Kopf, die uns die automatisierte Ausgabe von KI-Systemen nur zu gerne bestätigt – zeigt sie uns doch im Grunde ihren Eindruck der Schubladen auf, die sie aus all unseren Daten gewinnen konnte.
Kritisches Denken lässt sich dabei gezielt fördern: durch Impulse, das „Was wäre, wenn“ genauer zu beleuchten, durch sokratische Fragen nach dem „Wer“, „Was“ und „Wie“, oder durch ein gleich fünffach gestelltes „Warum“. Für einen balancierten Umgang mit Licht und Schatten der neuen Möglichkeiten, die der technologische Fortschritt uns bringt, sollte das unser sinnvollstes Investment sein.

Jun.-Prof. Dr. Maria Wirzberger leitet das Interchange Forum for Reflecting on Intelligent Systems an der Universität Stuttgart. Im Schnittfeld von Kognitionspsychologie, künstlicher Intelligenz und Mensch-Maschine-Interaktion beschäftigt sie sich aus einer interdisziplinären Perspektive mit der verantwortungsvollen, menschzentrierten Gestaltung technischer Systeme.

Tabea Berberena, M.A., entwickelt als wissenschaftliche Koordinatorin im Interchange Forum for Reflecting on Intelligent Systems Lehrangebote für Schulen, Hochschulen und die Industrie. Im Fokus stehen dabei besonders Kompetenzen des kritischen Denkens im Umgang mit KI- und datengestützten Systemen und ihrer gesellschaftlichen Auswirkungen.