Im ersten Track „Praxis und Use-Cases“ stand der Erfahrungsaustausch im Mittelpunkt: Non-Profit-Organisationen (NPOs) präsentierten ihre konkreten Anwendungsfälle rund um dialog-basierte Informationsangebote – umgesetzt mit LLM-basierten Chatbots. Ziel war es, aus Erfolgen und Erkenntnissen zu lernen. Als Ergebnis entstanden eine Reihe von Fragen, die sich zivilgesellschaftliche Akteur*innen bei der Wahl ihres Informationszugangssystems stellen sollten, um zu entscheiden, ob ein LLM-basierter Chatbot der richtige Weg ist. Den Auftakt machten zwei Praxisbeispiele, in denen LLM-basierte Chatbots mit unterschiedlichen Erfahrungen eingesetzt worden sind.
Praxisbeispiel VIBSS: Chatbot für den Landessportbund NRW
Max Rembert stellte das Projekt VIBSS vor, ein Vereins-, Informations-, Beratungs- und Schulungssystem des Landessportbundes NRW. Das Ziel: eine niedrigschwellige, mehrsprachige Informationsvermittlung rund um Themen wie Gesundheit, Finanzen, Vereinsrecht, Inklusion und sogar sexualisierte Gewalt. Der Chatbot basiert auf ChatGPT und greift auf eine vortrainierte Wissensbasis zu. Nutzer*innen können Fragen stellen wie „Wie mache ich ein FSJ?“ oder „Welche Ferienangebote gibt es?“. Die Antworten sind z.T. fachlich komplex (z.B. bei vereinsrechtlichen Fragestellungen), werden aber durch den Chatbot verständlich und zugänglich aufbereitet – und das in mehreren Sprachen, u.a. türkisch und russisch.
Die bisherigen Erfahrungen sind überwiegend positiv: Rund 15% der Website-Besucher*innen nutzen den Chatbot. Dennoch gibt es Herausforderungen: Die Kosten und der personelle Aufwand waren und sind hoch, die Pflege der Inhalte ist aufwendig und das System wurde durch den Dachverband für mehrere nutzende Websites konzipiert, sodass er nicht exklusiv für den LSB NRW entwickelt wurde, was z.B. Einschränkungen beim Design mit sich bringt. Ein relevanter Punkt: Die Antworten werden mit Quellenangabe versehen und die Nutzerinnen werden darauf hingewiesen, die Informationen zu verifizieren.
Kira: Planung inklusiver Spielplätze
Das zweite Beispiel, Kira, vorgestellt von Burkhardt Küthe vom Verein „natürlich-inklusiv“, richtet sich an kommunale Sachplaner*innen und Architekt*innen und soll die Planung inklusiver Spielplätze unterstützen. Auch hier soll der Chatbot die Hemmschwelle senken, u.a. bei Fragestellungen von Fachfremden – insbesondere zu den Themen Integration und Inklusion. Dafür wurde eine eigene Info-Website designt. Der Chatbot ist als Custom GPT umgesetzt. Das Projekt wurde durch eine Civic Coding Förderung möglich. Doch die Umsetzung verlief holprig.
Die bisherigen Erfahrungen sind eher gemischt: Die Nutzendenzahlen bleiben hinter der Erwartung zurück. Der beauftragte Dienstleister hatte weniger Expertise als erwartet, das Tool entsprach nicht den Anforderungen. Es fehlt zudem die Möglichkeit, eingegebene Anfragen auszuwerten. Das Fazit der Projektgruppe: Chatbots bieten Chancen, aber Planung, Datenqualität und ein klarer Nutzen sind entscheidend. Und: Es braucht eine ehrliche Reflexion über die eigenen Ziele und Ressourcen.
Praxiserfahrungen mit Chatbots: Zentrale Diskussionspunkte
Die Erfahrungen aus beiden Anwendungsbeispielen geben schon einen guten Hinweis auf Faktoren, die wichtige Auswirkungen auf das Gelingen von LLM-basierten Chatbotprojekten haben. So ist die Wahl der Partner*innen, sowohl bei ggf. erforderlicher technischer Unterstützung als auch auf Seite der finanziellen Förderer entscheidend für die Ausrichtung des Projektes. Es ist sinnvoll, dass zivilgesellschaftliche Akteur*innen auch selbst Kenntnisse über die Funktionsweisen von Systemen aneignen oder gemeinwohlorientierte Beratungen wie die Civic Data Lab Datensprechstunde in Anspruch nehmen, um potentiellen Dienstleistenden gegenüber die Anforderungen definieren und ihre Einhaltung frühzeitig prüfen zu können. Auch für das Erhalten von Souveränität durch das selbstständige Anpassen von Komponenten wie einem Systemprompt ist dies wichtig.
Auch die Wahl des Basissprachmodells sollte überlegt getroffen werden. Dafür wurde im Workshop insbesondere auf die Implikationen im Hinblick auf Datenschutz verwiesen. Wer mit personenbezogenen und insbesondere sensiblen Eingaben von Nutzenden rechnen kann, sollte eher den Einsatz von selbst gehosteten Open-Source Modellen setzen statt die API von Open AI einzusetzen.
Schließlich standen Fragen rund um den tatsächlichen Aufwand und die Kosten im Fokus: Wie viele personelle und finanzielle Ressourcen sind notwendig, um einen Chatbot erfolgreich zu betreiben, und wie lassen sich diese realistisch einschätzen? Beide Organisationen berichteten, dass die Einrichtung des Bots zu hohen Aufwänden führte, die laufenden Kosten durch die (bislang noch nicht riesige Menge an Anfragen) eher gering bleiben.
Einer besonders entscheidenden Frage ging der Workshop in der Tiefe nach: Für welchen Zweck sind LLM-basierte Chatbots eigentlich geeignet? Schließlich können sie noch so gut umgesetzt sein – wenn sie aber als Informationszugangssystem nicht die richtige Wahl darstellen, werden die Ergebnisse die Erwartungen nicht erfüllen.
Verschiedene Informationszugangssysteme sind für verschiedene Zwecke geeignet
Bei Systemen, mit denen wir Informationen vermitteln, unterscheiden wir als erstes, ob die Empfangenden potenziell aktiv nach der bereitgestellten Information suchen (Aktives Informationsverhalten), allgemein im Bereich Bildung oder auf individuelle Problemlagen hin bei der Beratung oder im Gegenteil dazu die Bereitstellung proaktiv (aufsuchend) erfolgt, zum Beispiel bei der Interessensvertretung. Da für die Informationsvermittlung durch einen Chatbot aktiv Fragen gestellt werden müssen, eignet er sich nur für Nutzer*innen, die auf der Suche nach Informationen sind. Andernfalls sind Soziale Medien, Podcasts und Vlogs, Newsletter oder auch Flyer besser geeignet – deren Erstellung natürlich auch durch KI-Tools unterstützt werden können.
Um zu definieren, ob ein LLM-basierter Chatbot für die aktive Informationsvermittlung die beste Methode ist, schlägt das Civic Data Lab eine Reihe von Fragen und Prüfkriterien vor, die im Workshop diskutiert wurden.
Dabei gibt es spezielle auf den konkreten Zweck ausgerichtete Kriterien und allgemeine, die sich aus den besonderen Charakteristika von Erstellung und Betrieb LLM-betriebener Chatbots ergeben.
Allgemeine Kriterien zur Auswahl von passenden Informationszugangssystemen:
- Einrichtung und Produktion: Welche Kosten entstehen für die Herstellung der Methode? Denkt neben finanziellen Aufwänden auch an natürliche Ressourcen u.a. Kosten!
- Langfristiger Betrieb: Welche Kosten entstehen in der Laufzeit der Methode? Denkt neben finanziellen Aufwänden auch an natürliche Ressourcen u.a. Kosten!
- Ethische Hintergründe bzgl. der Herstellungskosten: Welche Schritten sind nötig, um die Methode zu ermöglichen? Welche menschliche Arbeit fließt zu welchen Konditionen hinein, wessen geistiges Eigentum spielt eine Rolle?
- Welche Chancen und Gefahren von potentiellen Abhängigkeiten oder Souveränitätsverlusten gehen mit dem Einsatz der Methode einher?
- Welche Folgen hat die Methode für Teilhabechancen und potentielle Zugangshürden bzgl. Input und Output (Text, Sprache, Bilder etc.)? Denkt dabei an: a. Level an Komplexität: Versteht die User:in die Informationen? Wie zugänglich ist sie? b. Ausgabe der Sprache: Versteht die User:in die Informationen? In welcher Sprache wird sie ausgegeben/ Ist Mehrsprachigkeit möglich?
Kriterien für Systeme zum Auffinden von Wissen (Informieren/Bilden):
- Wie einfach ist es für Nutzer*innen, die für sie relevante Information zu finden?
- Wie einfach ist es für Nutzer*innen, schnell Informationen zu finden?
- Wie wahrscheinlich ist es, dass die gefundene Information richtig und aktuell ist?
- Wie leicht fällt es Nutzer*innen, die Vertrauenswürdigkeit einer Information und der dazugehörigen Quelle zu prüfen?
- Inwiefern entspricht die Suche der Gewohnheit von Nutzer*innen (d.h. kommen sie mit der Handhabung zurecht)?
- Können damit noch Meta-Bildungsziele erreicht werden, z.B. Auseinandersetzung mit Original-Dokumenten oder aber neuen Technologien?
Kriterien für Systeme zur individuellen Informationsvermittlung (Beraten):
- Wie gut sind die gelieferten Antworten hinsichtlich a. wissenschaftlicher Basis der Informationen b. Anpassung der Reaktionen an die Situation des Individuums?
- Wie gut ausgewogen ist das Verhältnis in den Antworten zwischen Sachlichkeit und Empathie?
- Wie gut kann beim richtigen Formulieren des Problems/des Bedarfs/der Frage geholfen werden (noch bevor eine Antwort gegeben wird)?
- Können damit noch Meta-Ziele erreicht werden, z.B. Stärkung der eigenen Lösungskompetenz/ Bildungsanspruch gegenüber den Ratsuchenden?
Kriterien für Systeme zur proaktiven Informationsverbreitung (Interessensvertretung, Advocacy):
- Wie gut erreicht die Methode Nutzer*innen, die nicht von sich aus nach der Information suchen? (Targeting)
- Wie gut gelingt es, die Informationen direkt auf die Interessen von Nutzer*innen zu personalisieren?
- Wie gut gelingt es mit der Methode, Nutzer*innen zur Interaktion zu bewegen? (Engagement Rate)
- Werden Ziele nachhaltig erreicht: Nutzer*innen treten in Beziehung zu den Informationen und ändern nachhaltig ihr Verhalten bzw. entsprechende politische Entscheidungen werden getroffen?
Die besonderen Vorteile von LLM-basierten Chatbots als Informationszugangssysteme liegen in der niedrigschwelligen Zugänglichkeit, die durch einfach erreichbare Mehrsprachigkeit und die Übertragung auf die jeweiligen Kontexte der Fragenden ermöglicht wird. Dieser Vorteil kommt besonders zum Tragen, wenn Nutzer*innen in der Lage sind einzuschätzen, welche Informationen sie suchen und ob sie sie bereits gefunden haben oder noch weiter suchen müssen. Die spezifische Darstellung als Chatbot und die Gefahr zu ungenauer Informationswiedergabe (Halluzinieren) durch das LLM erfordern ein nicht geringes Maß an Medienkompetenz.
Zugleich werden andere Medienkompetenzen, wie das selbstständige Recherchieren und Interpretieren von Originalquellen weniger gefördert. Es besteht die Sorge, dass dadurch insbesondere die Fähigkeit zum kritischen Bewerten von Informationen verloren geht.
Besonders für die individualisierte Beratung stehen dagegen jedoch Problematiken mit dem Datenschutz – gerade bei sensiblen Beratungsinhalten, wie sie etwa in der Kinder- und Jugendhilfe vorkommen. In solchen Fällen sollten LLMs häufig nicht direkt im Kontakt mit den Hilfesuchenden eingesetzt werden, könnten aber den Berater*innen im Hintergrund als Unterstützung dienen. Diese könnten zum Beispiel als fachliches Sparring oder als fachliche Erläuterungen von Fachtexten für Berater*innen dienen.
Ein weiteres wichtiges kritisches Thema war die sprachliche Sensibilität: Chatbots müssen nicht nur fachlich korrekt, sondern auch empathisch kommunizieren können – die Ausgabe in mehreren Sprachen genügt nicht, der Inhalt muss auch stimmig und der Tonfall angemessen sein, da Beratungen meist zu emotional herausfordernden Themen in Anspruch genommen wird.
Spannend war auch die Beobachtung, dass die jüngst gewachsene Nutzer*innengewohnheit mit generativen KIs wie ChatGPT dazu führt, von Chatbots Antworten zu eine große Breite an Fragen erwarten zu können. Wenn aber, wie in Beratungskontexten oft üblich, mithilfe von RAG spezifische Quellen den Informationsraum absichern, aber auch eingrenzen, wird diese Erwartung auch immer wieder enttäuscht.
Bei der Bewertung aller inhaltlichen Vor- und Nachteile darf jedoch auch nicht der hohe Ressourcenverbrauch der erforderlichen Rechenkapazitäten von LLMs sowie die Kosten ihrer Herstellung inkl. der menschlichen Arbeit unter schlechten Bedingungen („Clickwork“) sowie die Verletzung von Urheberrechten (für das Training) vergessen werden.
Die Diskutierenden im Workshop kommen letztlich zu unterschiedlichen Bewertungen: Einige betonen deutlich die Vorteile von LLM-basierten Chatbots. Nachteile können z.B. durch den Einsatz von RAG oder „Agents“ abgemildert werden. Um durch die weltweite Nutzung von LLMs nicht ins Hintertreffen zu geraten, sieht es diese Gruppe als angeraten, selbst eigene Daten in weitere KI-Entwicklungen einzubringen und die Nutzung voranzubringen. Die andere Gruppe ist vorsichtiger und rät angesichts der Nachteile dazu, genau zu prüfen, ob nicht andere Methoden der Informationsvermittlung ebenfalls die gewünschten Ergebnisse bringen würden und LLM-basierte Chatbots im besten Fall überambitioniert wären, als würde man mit Kanonen auf Spatzen schießen – im schlimmsten Fall jedoch negative Effekte für Nutzer*innen oder Dritte mit sich brächten.