Zum Inhalt springen

LLM-basierte Chatbots: KI als Lösung für gesellschaftliche Probleme oder doch eher Ursache für neue?

Die vierte Ausgabe der Veranstaltungsreihe „Gemeinsam Machen“ des Civic Data Lab widmete sich einem hochaktuellen Thema: Wie können und sollten zivilgesellschaftliche Organisationen Informationen im digitalen Zeitalter bereitstellen? Im Fokus standen dabei insbesondere die Möglichkeiten und Grenzen von Large Language Modellen (LLMs) als Grundlage für generative KI in Chatbots. Die Veranstaltung bot den Teilnehmenden die Möglichkeit, sich in zwei parallelen Tracks mit zwei ganz unterschiedlichen Aspekten des Themas auseinanderzusetzen.


02. 05. 2025

Einführung: Generative Sprachmodelle und Informationszugangssysteme

Jonas vom Civic Data Lab-Team führte zu Beginn in die Grundbegriffe und Konzepte rund um das Thema generative Sprachmodelle ein. Dabei stellte er klar, dass Künstliche Intelligenz (KI) nicht als künstlicher Mensch sondern Intelligenz als eine auf bestimmte Ziele ausgerichtete Fähigkeit zu verstehen sei. Große generative Sprachmodelle wir BERT oder GPT-4 sind neuronale Netzwerke, die durch Masked Language Modelling oder Next Token Prediction trainiert werden. Dies Modelle  werden in Informationszugangssystemen oft durch RAG (Retrieval Augmented Generation) ergänzt. Hierbei basiert  die Generierung von Antworten auf den Ergebnissen einer Suche in ausgewählten Dokumenten. Ein neuer Trend ist die Nutzung von LLMs als autonome Komponenten, die andere Programme, ähnlich wie Werkzeuge, ausführen können. So kann das LLM zum Beispiel entscheiden, wann es eine  Websuche ausführt oder wann es Rückfragen stellt. Wer mehr erfahren möchte, kann sich hier die Präsentation oder hier das Video vom Espresso-Talk nochmal anschauen.

Im Rahmen von ‚Gemeinsam Machen 4‘ wollten wir uns dem Thema aus zwei unterschiedlichen Perspektiven nähern, um ein umfassendes Verständnis zu gewinnen. Im Folgenden findet Ihr die jeweiligen detaillierten Inhalte zu den zwei Tracks:

 

Im ersten Track „Praxis und Use-Cases“ stand der Erfahrungsaustausch im Mittelpunkt: Non-Profit-Organisationen (NPOs) präsentierten ihre konkreten Anwendungsfälle rund um dialog-basierte Informationsangebote – umgesetzt mit LLM-basierten Chatbots. Ziel war es, aus Erfolgen und Erkenntnissen zu lernen. Als Ergebnis entstanden eine Reihe von Fragen, die sich zivilgesellschaftliche Akteur*innen bei der Wahl ihres Informationszugangssystems stellen sollten, um zu entscheiden, ob ein LLM-basierter Chatbot der richtige Weg ist. Den Auftakt machten zwei Praxisbeispiele, in denen LLM-basierte Chatbots mit unterschiedlichen Erfahrungen eingesetzt worden sind.

Praxisbeispiel VIBSS: Chatbot für den Landessportbund NRW

Max Rembert stellte das Projekt VIBSS vor, ein Vereins-, Informations-, Beratungs- und Schulungssystem des Landessportbundes NRW. Das Ziel: eine niedrigschwellige, mehrsprachige Informationsvermittlung rund um Themen wie Gesundheit, Finanzen, Vereinsrecht, Inklusion und sogar sexualisierte Gewalt. Der Chatbot basiert auf ChatGPT und greift auf eine vortrainierte Wissensbasis zu. Nutzer*innen können Fragen stellen wie „Wie mache ich ein FSJ?“ oder „Welche Ferienangebote gibt es?“. Die Antworten sind z.T. fachlich komplex (z.B. bei vereinsrechtlichen Fragestellungen), werden aber durch den Chatbot verständlich und zugänglich aufbereitet – und das in mehreren Sprachen, u.a. türkisch und russisch.

Die bisherigen Erfahrungen sind überwiegend positiv: Rund 15% der Website-Besucher*innen nutzen den Chatbot. Dennoch gibt es Herausforderungen: Die Kosten und der personelle Aufwand waren und sind hoch, die Pflege der Inhalte ist aufwendig und das System wurde durch den Dachverband für mehrere nutzende Websites konzipiert, sodass er nicht exklusiv für den LSB NRW entwickelt wurde, was z.B. Einschränkungen beim Design mit sich bringt. Ein relevanter Punkt: Die Antworten werden mit Quellenangabe versehen und die Nutzerinnen werden darauf hingewiesen, die Informationen zu verifizieren.

Kira: Planung inklusiver Spielplätze

Das zweite Beispiel, Kira, vorgestellt von Burkhardt Küthe vom Verein „natürlich-inklusiv“, richtet sich an kommunale Sachplaner*innen und Architekt*innen und soll die Planung inklusiver Spielplätze unterstützen. Auch hier soll der Chatbot die Hemmschwelle senken, u.a. bei Fragestellungen von Fachfremden – insbesondere zu den Themen Integration und Inklusion. Dafür wurde eine eigene Info-Website designt. Der Chatbot ist als Custom GPT umgesetzt. Das Projekt wurde durch eine Civic Coding Förderung möglich. Doch die Umsetzung verlief holprig.

Die bisherigen Erfahrungen sind eher gemischt: Die Nutzendenzahlen bleiben hinter der Erwartung zurück. Der beauftragte Dienstleister hatte weniger Expertise als erwartet, das Tool entsprach nicht den Anforderungen. Es fehlt zudem die Möglichkeit, eingegebene Anfragen auszuwerten. Das Fazit der Projektgruppe: Chatbots bieten Chancen, aber Planung, Datenqualität und ein klarer Nutzen sind entscheidend. Und: Es braucht eine ehrliche Reflexion über die eigenen Ziele und Ressourcen.

Praxiserfahrungen mit Chatbots: Zentrale Diskussionspunkte

Die Erfahrungen aus beiden Anwendungsbeispielen geben schon einen guten Hinweis auf Faktoren, die wichtige Auswirkungen auf das Gelingen von LLM-basierten Chatbotprojekten haben. So ist die Wahl der Partner*innen, sowohl bei ggf. erforderlicher technischer Unterstützung als auch auf Seite der finanziellen Förderer entscheidend für die Ausrichtung des Projektes. Es ist sinnvoll, dass zivilgesellschaftliche Akteur*innen auch selbst Kenntnisse über die Funktionsweisen von Systemen aneignen oder gemeinwohlorientierte Beratungen wie die Civic Data Lab Datensprechstunde in Anspruch nehmen, um potentiellen Dienstleistenden gegenüber die Anforderungen definieren und ihre Einhaltung frühzeitig prüfen zu können. Auch für das Erhalten von Souveränität durch das selbstständige Anpassen von Komponenten wie einem Systemprompt ist dies wichtig.

Auch die Wahl des Basissprachmodells sollte überlegt getroffen werden. Dafür wurde im Workshop insbesondere auf die Implikationen im Hinblick auf Datenschutz verwiesen. Wer mit personenbezogenen und insbesondere sensiblen Eingaben von Nutzenden rechnen kann, sollte eher den Einsatz von selbst gehosteten Open-Source Modellen setzen statt die API von Open AI einzusetzen.

Schließlich standen Fragen rund um den tatsächlichen Aufwand und die Kosten im Fokus: Wie viele personelle und finanzielle Ressourcen sind notwendig, um einen Chatbot erfolgreich zu betreiben, und wie lassen sich diese realistisch einschätzen? Beide Organisationen berichteten, dass die Einrichtung des Bots zu hohen Aufwänden führte, die laufenden Kosten durch die (bislang noch nicht riesige Menge an Anfragen) eher gering bleiben.

Einer besonders entscheidenden Frage ging der Workshop in der Tiefe nach: Für welchen Zweck sind LLM-basierte Chatbots eigentlich geeignet? Schließlich können sie noch so gut umgesetzt sein – wenn sie aber als Informationszugangssystem nicht die richtige Wahl darstellen, werden die Ergebnisse die Erwartungen nicht erfüllen.

Verschiedene Informationszugangssysteme sind für verschiedene Zwecke geeignet

Bei Systemen, mit denen wir Informationen vermitteln, unterscheiden wir als erstes, ob die Empfangenden potenziell aktiv nach der bereitgestellten Information suchen (Aktives Informationsverhalten), allgemein im Bereich Bildung oder auf individuelle Problemlagen hin bei der Beratung oder im Gegenteil dazu die Bereitstellung proaktiv (aufsuchend) erfolgt, zum Beispiel bei der Interessensvertretung. Da für die Informationsvermittlung durch einen Chatbot aktiv Fragen gestellt werden müssen, eignet er sich nur für Nutzer*innen, die auf der Suche nach Informationen sind. Andernfalls sind Soziale Medien, Podcasts und Vlogs, Newsletter oder auch Flyer besser geeignet – deren Erstellung natürlich auch durch KI-Tools unterstützt werden können.

Um zu definieren, ob ein LLM-basierter Chatbot für die aktive Informationsvermittlung die beste Methode ist, schlägt das Civic Data Lab eine Reihe von Fragen und Prüfkriterien vor, die im Workshop diskutiert wurden.

Dabei gibt es spezielle auf den konkreten Zweck ausgerichtete Kriterien und allgemeine, die sich aus den besonderen Charakteristika von Erstellung und Betrieb LLM-betriebener Chatbots ergeben.

Allgemeine Kriterien zur Auswahl von passenden Informationszugangssystemen:

  • Einrichtung und Produktion: Welche Kosten entstehen für die Herstellung der Methode? Denkt neben finanziellen Aufwänden auch an natürliche Ressourcen u.a. Kosten!
  • Langfristiger Betrieb: Welche Kosten entstehen in der Laufzeit der Methode? Denkt neben finanziellen Aufwänden auch an natürliche Ressourcen u.a. Kosten!
  • Ethische Hintergründe bzgl. der Herstellungskosten: Welche Schritten sind nötig, um die Methode zu ermöglichen? Welche menschliche Arbeit fließt zu welchen Konditionen hinein, wessen geistiges Eigentum spielt eine Rolle?
  • Welche Chancen und Gefahren von potentiellen Abhängigkeiten oder Souveränitätsverlusten gehen mit dem Einsatz der Methode einher?
  • Welche Folgen hat die Methode für Teilhabechancen und potentielle Zugangshürden bzgl. Input und Output (Text, Sprache, Bilder etc.)? Denkt dabei an: a. Level an Komplexität: Versteht die User:in die Informationen? Wie zugänglich ist sie? b. Ausgabe der Sprache: Versteht die User:in die Informationen? In welcher Sprache wird sie ausgegeben/ Ist Mehrsprachigkeit möglich?

Kriterien für Systeme zum Auffinden von Wissen (Informieren/Bilden):

  • Wie einfach ist es für Nutzer*innen, die für sie relevante Information zu finden?
  • Wie einfach ist es für Nutzer*innen, schnell Informationen zu finden?
  • Wie wahrscheinlich ist es, dass die gefundene Information richtig und aktuell ist?
  • Wie leicht fällt es Nutzer*innen, die Vertrauenswürdigkeit einer Information und der dazugehörigen Quelle zu prüfen?
  • Inwiefern entspricht die Suche der Gewohnheit von Nutzer*innen (d.h. kommen sie mit der Handhabung zurecht)?
  • Können damit noch Meta-Bildungsziele erreicht werden, z.B. Auseinandersetzung mit Original-Dokumenten oder aber neuen Technologien?

Kriterien für Systeme zur individuellen Informationsvermittlung (Beraten):

  • Wie gut sind die gelieferten Antworten hinsichtlich a. wissenschaftlicher Basis der Informationen b. Anpassung der Reaktionen an die Situation des Individuums?
  • Wie gut ausgewogen ist das Verhältnis in den Antworten zwischen Sachlichkeit und Empathie?
  • Wie gut kann beim richtigen Formulieren des Problems/des Bedarfs/der Frage geholfen werden (noch bevor eine Antwort gegeben wird)?
  • Können damit noch Meta-Ziele erreicht werden, z.B. Stärkung der eigenen Lösungskompetenz/ Bildungsanspruch gegenüber den Ratsuchenden?

Kriterien für Systeme zur proaktiven Informationsverbreitung (Interessensvertretung, Advocacy):

  • Wie gut erreicht die Methode Nutzer*innen, die nicht von sich aus nach der Information suchen? (Targeting)
  • Wie gut gelingt es, die Informationen direkt auf die Interessen von Nutzer*innen zu personalisieren?
  • Wie gut gelingt es mit der Methode, Nutzer*innen zur Interaktion zu bewegen? (Engagement Rate)
  • Werden Ziele nachhaltig erreicht: Nutzer*innen treten in Beziehung zu den Informationen und ändern nachhaltig ihr Verhalten bzw. entsprechende politische Entscheidungen werden getroffen?

Die besonderen Vorteile von LLM-basierten Chatbots als Informationszugangssysteme liegen in der niedrigschwelligen Zugänglichkeit, die durch einfach erreichbare Mehrsprachigkeit und die Übertragung auf die jeweiligen Kontexte der Fragenden ermöglicht wird. Dieser Vorteil kommt besonders zum Tragen, wenn Nutzer*innen in der Lage sind einzuschätzen, welche Informationen sie suchen und ob sie sie bereits gefunden haben oder noch weiter suchen müssen. Die spezifische Darstellung als Chatbot und die Gefahr zu ungenauer Informationswiedergabe (Halluzinieren) durch das LLM erfordern ein nicht geringes Maß an Medienkompetenz.

Zugleich werden andere Medienkompetenzen, wie das selbstständige Recherchieren und Interpretieren von Originalquellen weniger gefördert. Es besteht die Sorge, dass dadurch insbesondere die Fähigkeit zum kritischen Bewerten von Informationen verloren geht.

Besonders für die individualisierte Beratung stehen dagegen jedoch Problematiken mit dem Datenschutz – gerade bei sensiblen Beratungsinhalten, wie sie etwa in der Kinder- und Jugendhilfe vorkommen. In solchen Fällen sollten LLMs häufig nicht direkt im Kontakt mit den Hilfesuchenden eingesetzt werden, könnten aber den Berater*innen im Hintergrund als Unterstützung dienen. Diese könnten zum Beispiel als fachliches Sparring oder als fachliche Erläuterungen von Fachtexten für Berater*innen dienen.

Ein weiteres wichtiges kritisches Thema war die sprachliche Sensibilität: Chatbots müssen nicht nur fachlich korrekt, sondern auch empathisch kommunizieren können – die Ausgabe in mehreren Sprachen genügt nicht, der Inhalt muss auch stimmig und der Tonfall angemessen sein, da Beratungen meist zu emotional herausfordernden Themen in Anspruch genommen wird.

Spannend war auch die Beobachtung, dass die jüngst gewachsene Nutzer*innengewohnheit mit generativen KIs wie ChatGPT dazu führt, von Chatbots Antworten zu eine große Breite an Fragen erwarten zu können. Wenn aber, wie in Beratungskontexten oft üblich, mithilfe von RAG spezifische Quellen den Informationsraum absichern, aber auch eingrenzen, wird diese Erwartung auch immer wieder enttäuscht.

Bei der Bewertung aller inhaltlichen Vor- und Nachteile darf jedoch auch nicht der hohe Ressourcenverbrauch der erforderlichen Rechenkapazitäten von LLMs sowie die Kosten ihrer Herstellung inkl. der menschlichen Arbeit unter schlechten Bedingungen („Clickwork“) sowie die Verletzung von Urheberrechten (für das Training) vergessen werden.

Die Diskutierenden im Workshop kommen letztlich zu unterschiedlichen Bewertungen: Einige betonen deutlich die Vorteile von LLM-basierten Chatbots. Nachteile können z.B. durch den Einsatz von RAG oder „Agents“ abgemildert werden. Um durch die weltweite Nutzung von LLMs nicht ins Hintertreffen zu geraten, sieht es diese Gruppe als angeraten, selbst eigene Daten in weitere KI-Entwicklungen einzubringen und die Nutzung voranzubringen. Die andere Gruppe ist vorsichtiger und rät angesichts der Nachteile dazu, genau zu prüfen, ob nicht andere Methoden der Informationsvermittlung ebenfalls die gewünschten Ergebnisse bringen würden und LLM-basierte Chatbots im besten Fall überambitioniert wären, als würde man mit Kanonen auf Spatzen schießen – im schlimmsten Fall jedoch negative Effekte für Nutzer*innen oder Dritte mit sich brächten.

 

Im zweiten Track diskutierten rund 15 Teilnehmende die gesellschaftlichen Auswirkungen von KI-basierten Informationssystemen im Kontext der vergangenen Bundestagswahl. In den Monaten vor der Wahl waren neben dem allseits bekannten Wahl-O-Mat KI-basierte Informationsangebote wie wahl.chat, Wahlweise und WahlCheck2025 veröffentlicht worden. Anders als beim Wahl-O-Mat, bei dem statisch Fragen mit Antworten der Parteien abgeglichen werden, konnten Interessierte bei den anderen Angeboten interaktiv mit einem KI-System interagieren.

Das Spannungsfeld zwischen Potenzial und Risiko

In der Diskussion wurde schnell deutlich, dass KI-basierte Informationstools im Kontext von Wahlen sowohl Chancen als auch erhebliche Risiken bergen. Die Teilnehmenden sahen das Potenzial vor allem in der Informationsverdichtung und Zeitersparnis: KI-Tools können große Datenmengen schnell verarbeiten und aufbereiten. Sie ermöglichen zudem eine individualisierte Informationsbereitstellung, die auf persönliche Bedürfnisse zugeschnitten ist, und können Zugangsbarrieren senken, indem sie komplexe Inhalte verständlicher aufbereiten – ein nicht zu unterschätzender Vorteil für eine inklusive politische Bildung.

Diesen Potenzialen stehen jedoch beträchtliche Risiken gegenüber. Die mangelnde Verlässlichkeit der bereitgestellten Informationen beschäftigte die Diskussionsteilnehmenden besonders: KI-Systeme neigen dazu, sich Informationen „auszudenken“ oder verzerrt darzustellen, besonders wenn ihre Datengrundlage bereits selektiv ist. Eine Teilnehmerin berichtete eingängig von einem selbst analysierten Beispiel eines der Wahl-Tools, welches Antworten nur aus den neun von insgesamt 43 Wahlprogrammen zieht. Was ursprünglich als Vereinfachung durch Konzentration auf eine Auswahl der neun größten Parteien gedacht war, führte zu erheblichen inhaltlichen Einschränkungen was die thematische Ausgewogenheit und Vielfalt betraf und damit automatisch zu Verzerrungen der reproduzierten Inhalte.

Weiterhin können sich Vorurteile und Stereotype aus den Trainingsdaten in den Ausgaben reproduzieren und verstärken, was ein erhebliches Diskriminierungspotenzial schafft. Als besonders problematisch wurde die fehlende redaktionelle Verantwortung eingestuft: Viele Tools suggerieren zudem eine Objektivität in Auswahl und Antwort, was das kritische Bewusstsein der Nutzer*innen beeinträchtigen kann.

Tiefgehende Erkenntnisse am Beispiel von wahl.chat vom Civic Data Lab

Das Civic Data Lab präsentierte erste Erkenntnisse aus einer explorativen Untersuchung zu KI-basierten Wahltools am Beispiel von wahl.chat. Die Analyse zeigte mehrere Herausforderungen auf:

Die Tools erwecken einen Eindruck von Objektivität, übernehmen jedoch häufig Begriffe aus Parteiprogrammen mit deren inhärenten politischen Ausrichtungen. Die Quellenverwendung bleibt oft intransparent, wobei teilweise parteinahe Informationen ohne entsprechende Kennzeichnung einbezogen werden. Bei der Darstellung politischer Positionen, auch extremer Ausrichtungen, fehlt teilweise eine kritische Einordnung. In der Nutzerführung werden mitunter thematisch unterschiedliche Inhalte in problematischer Weise verknüpft. Zudem werden Nachhaltigkeitsaspekte der KI-Technologie selbst, wie Ressourcenverbrauch und gesellschaftliche Auswirkungen, nicht thematisiert.

Wo ist und wo bleibt eigentlich die Frage nach der Verantwortung?

Ein zentrales Thema der Diskussion war die fehlende (redaktionelle) Verantwortung bei KI-basierten Informationsangeboten. Die Betreiber:innen können keine vollständige Kontrolle über den Output haben, selbst wenn die Trainingsdaten sorgfältig geprüft wurden. Auch bei der Auswahl von Informationen entsteht zwangsläufig Unvollständigkeit und potenziell Verzerrung, auch weil die Diversität der Daten oft unzureichend ist. Es fehlt zudem in den meisten Fällen das menschliche Gegenüber, das auf Beschwerden reagieren, Transparenz zeigen und Grenzen aktiv benennen kann.

Betreiber:innen ziehen sich nicht selten aus dem kritischen Diskurs zurück, da sie sich für die Antworten der KI-Tools inhaltlich nicht verantwortlich fühlen. Im polarisierten Kontext eines Wahlkampfs ist es besonders bedenklich, wenn ein Tool den Anschein gibt, objektiv zu antworten, während es für die Nutzer*innen wenig inhaltliche Einordnung bietet oder z.T. diese zu wenig spezifisch sind und beispielsweise keine potenzielle Auswirkungen für Betroffene aufgreifen. Die Diskussion machte deutlich, dass ein entscheidender Unterschied besteht zwischen einem KI-System, das lediglich aus Wahlprogrammen zitiert, und einem, das Inhalte eigenständig einordnet – letzteres erfordert zwingend ein höheres Maß an Verantwortungsübernahme durch die Betreiber:innen.

Das wachsende Kompetenzgefälle der Nutzer*innen als (Bildungs-)Herausforderung

Das wachsende Kompetenzgefälle zwischen verschiedenen Nutzendengruppen wurde ebenfalls als ein Problemfeld identifiziert. Die Nutzungs- und KI-Kompetenz vieler Menschen hinkt der technischen Entwicklung hinterher. Es entsteht eine neue Dimension des „Digital Divide“: Einige Personen verfügen über hohe Kompetenz im Umgang mit KI und können diese zu ihrem Vorteil nutzen, während andere kognitive Aufgaben auslagern, ohne die Risiken davon erkennen zu können. Das Framing von KI-Tools als „persönliche Gesprächspartner“ verstärkt diese Problematik zusätzlich. Eine Lösung für dieses Dilemma gibt es nicht, allerdings sollte zukünftig der unbedingte Fokus auf eine breite systematische Ausrichtung und Förderung von Daten- und KI-Kompetenz in der Bildung liegen.

Komplexitätsreduktion oder Vereinfachung und Verzerrung der Inhalte?

Ein weiterer wichtiger Diskussionspunkt war die vermeintliche Reduktion von Komplexität durch KI-Tools. Nutzer*innen suchen z.T. einfache, verständliche und direkte Antworten auf komplexe Fragen, und KI-Tools versprechen auf den ersten Blick, genau das zu liefern. Es eröffnet eine Diskrepanz zwischen dem Wunsch nach Komplexitätsreduktion seitens der Nutzer und der tatsächlichen Vielschichtigkeit politischer und gesellschaftlicher Fragen, die sich allerdings oft nicht auf einfache Antworten reduzieren lassen. Bei Wahlentscheidungen besteht die Gefahr, dass der demokratische Diskurs an KI-Tools ausgelagert wird und das künstliche System zum primären Gesprächspartner wird. Im Gegensatz zum klassischen Wahl-O-Mat, der Fragen stellt und dadurch Reflexion fördert, liefern viele KI-Tools vorrangig Antworten und reduzieren so den Prozess der eigenen Selbstreflexion deutlich.

Es gab in diesem Kontext unterschiedliche Perspektiven zur Rolle der KI: Einerseits wurde betont, dass KI, wie auch andere Systeme in der Vergangenheit, immer im gesamtgesellschaftlichen Kontext betrachtet werden müsse und nur eines von vielen Informationsangeboten im Kontext von Wahlentscheidungen darstelle, zwischen denen Wähler*innen auswählen könnten. Andererseits wurde die Notwendigkeit hervorgehoben, dass KI-Systeme deutlich machen müssen, wie und in welchem Ausmaß sie Inhalte und damit Komplexität reduzieren.

Am Ende des Tracks wurden in den wesentlichen drei konkreten Forderungen der Teilnehmenden an Entwickler*innen und Betreiber*innen von KI-basierte Informationssystemen zusammengestellt:

  • Entwickler*innen und Betreiber:innen von KI-basierten Informationssystemen sollten die Grenzen ihrer Tools benennen.Die Systeme sollten zudem deutlich machen, was sie bei der Komplexitätsreduktion tun – etwa durch detaillierte Erläuterungen in einem prominenten Disclaimer.
  • Hinsichtlich der Verantwortungsübernahme wurde gefordert, dass die Entwickler*innen der Tools kritisch reflektieren sollten, welche Auswirkungen ihr Angebot hat.
  • Wichtig wären auch Fehlermeldungsmöglichkeiten: Tools sollten einen Button anbieten, über den Nutzer*innen Fehler oder problematische Äußerungen direkt in der Interaktion mit dem KI-System melden können. So wäre es möglich, direkt inhaltlich-fachliche Fehler und Verzerrungen oder technische Bugs zu melden und als Nutzer:innen an der Qualitätsverbesserung aktiv mitzuwirken.
  • Weitere Forderungen betrafen die Stärkung des Menschenbezugs, da KI-Tools die menschliche Komponente von Politik nicht abstrahieren können und sollten. Statt einer vermeintlichen Objektivität müssten, so die Forderung, die konkreten Auswirkungen auf Menschen, insbesondere marginalisierte Gruppen, konkret aufgezeigt und thematisiert werden. Nicht zuletzt müssen Bildung und Kompetenzförderung flächendeckend ausgebaut werden. Es muss stärker kommuniziert werden, dass KI Inhalte generiert und welche Implikationen dies hat.

Fazit von „Gemeinsam Machen IV“: KI als vierte Kulturtechnik?

In der abschließenden Diskussion der gesamten Gruppe wurde KI als potenzielle „vierte Kulturtechnik“ bezeichnet, neben Lesen, Schreiben und Rechnen. Die Teilnehmenden waren sich einig, dass wir erst am Anfang einer Entwicklung stehen, die viel Arbeit und noch mehr kritische Reflexion erfordert. Es wurde festgehalten, dass es trotz der Defizite von LLMs bereits erste technische Ansätze gibt, diese zu beheben – diese allerdings zunächst selbst auch umfänglich inhaltlich und technisch geprüft werden müssten. Um kulturelle Verzerrungen zu verhindern, sollten allerdings verstärkt und systematisch diverse Daten zur Verfügung gestellt werden, da ansonsten KI-Tools nur Durchschnittsergebnisse als Resultate liefert. Die Auseinandersetzung mit dem Verhältnis von Demokratie und Technik bleibt weiterhin zentral als Anspruch erhalten: Es geht in der Tat um Haltungen, die sich nicht einfach in Chatbots einschreiben lassen.

Die aktuell zu beobachtende Verantwortungsdiffusion zwischen Nutzenden und Betreibenden muss stärker adressiert werden, so eine konsensuelle Forderung der Teilnehmenden. Negative Aspekte müssten stärker durch aktive Medien- und Bildungsarbeit im Bereich Daten- und KI-Kompetenz abgefedert werden – aber die große Frage bleibt, wie dies gelingen kann. Eine Balance zwischen Verantwortung und Innovationsfreude ist notwendig, um Experimentierfreude zu erhalten und gleichzeitig Sensibilität für Verantwortungsbereiche zu schaffen. In LLMs müssen Werte eingeschrieben werden – denn, wer keine eingibt, kann auch keine erwarten, da sonst nur „wahrscheinliche“ Antworten generiert werden.

„Die Diskussionen rund um Vor- und Nachteile von KI erinnern an die frühen Abwägungen als Soziale Medien neu aufkamen,“ brachte ein Diskussionsteilnehmer ein. Die Parallele macht nachdenklich: Heute blicken wir auf noch immer nicht abschließend beschriebene gesellschaftliche Folgen der Verlagerung öffentlicher Diskurse in die von wenigen profitorientierten Firmen geschaffenen Plattformen. Zugleich ist eine Entscheidung gegen die Nutzung scheinbar ohne Option. Wird es mit KI-basierten Informationssystemen ähnlich sein? Ein Grund mehr für die Zivilgesellschaft, in diesem Themenbereich weiter Kompetenzen aufzubauen und kritisch zu bleiben.

Was bleibt zu erwarten für eine aktive Zivilgesellschaft?

Die Herausforderung der Zukunft wird nicht nur darin bestehen, bessere KI-Systeme zu entwickeln, sondern gerade darin, eine aktive Zivilgesellschaft mitzugestalten, die kritisch, reflektiert, verantwortungsvoll und kompetent mit diesen Werkzeugen zum Nutzen der Gesellschaft umgehen kann – es liegt in unserer Hand als Individuum, Bürger*in und Teil einer diversen Zivilgesellschaft, die richtigen Fragen zu stellen, die Entwicklungen eng und kritisch zu begleiten und den Diskurs aktiv mitzugestalten.

 

Autor*innen

Bild3

Stephanie Agethen (sie/ihr)

Kommunikation Kontakt in HumHub

Angela

Angela Berger (sie/ihr)

Datenvorhaben Kontakt in HumHub

ppduesseldorf___3_von_3_

Lena Marbach (sie/ihr)

Community-Managment Kontakt in HumHub


Mehr aus dem Blog ...