Civic Data Lab: Neben den bekannten generativen Sprachmodellen, was ist noch relevant?
Engelhardt: KI ist ja kein neues Phänomen. Neben Sprachmodellen gibt es die Robotik oder tragbare KI-Systeme, die im medizinischen Bereich genutzt werden. In der Beratung könnten solche Systeme theoretisch Gesundheitsdaten einbeziehen, die zum Beispiel für den psychosozialen Kontext relevant sind. Es geht hier um die Frage: Welche Informationen wollen wir erfassen, um gut beraten zu können? Dazu könnten smarte Matching-Systeme kommen, die auf Grundlage einiger Fragen eine passende Beraterin oder einen Berater vorschlagen.
Civic Data Lab: Wie kann ein*e Berater*in KI in die Arbeitsabläufe integrieren und was verändert sich fachlich dadurch?
Engelhardt: Denkbar ist, dass eine Beratungsfachkraft KI wie eine*n Kolleg*in zu Rate zieht. Zum Beispiel in einer Art Supervisionsgespräch oder als Unterstützung bei einer Fallberatung. KI kann andere Perspektiven einbringen, die man selbst vielleicht nicht eingenommen hätte.
Gutes Prompting ist bei der Arbeit mit KI in der Beratung essenziell
Wichtig dabei ist dann das sogenannte Prompting. Je klarer und gezielter die Eingabe, desto brauchbarer die Antwort. Trotzdem bleibt natürlich die eigene Fachlichkeit der Beratenden entscheidend, um zu prüfen, ob vorgeschlagene Methoden wirklich existieren oder passen. Hilfreich ist auch, sich Beispielprompts anzulegen. Das kann in Form von Fallvignetten stattfinden, um gezielt zu prüfen, in welchen Situationen KI sinnvoll befragt werden kann. Dabei ganz wichtig! Klient*innendaten gehören nicht in die frei zugängliche Chatbots, die wir alle inzwischen kennen.
Civic Data Lab: Welche rechtlichen Fragen müssen vor dem Einsatz von KI in der Beratung geklärt sein?
Engelhardt: Immer wenn KI benutzt wird, muss den Beratenden bewusst sein, dass die Daten beim Entwickler der KI landen. Aber vielleicht stellt die Organisation eine eigen betriebene KI-Lösung zur Verfügung. Eine solche sicherere Infrastruktur ist dabei optimal. Und ein weiterer wichtiger Punkt ist die Transparenz gegenüber den Klientinnen und Klienten. Wann muss ich offenlegen, dass ich KI genutzt habe? Das ist ja schon eine ethische Frage. Gleichzeitig ist nicht zu verhindern, dass Ratsuchende selbst KI verwenden. Und oft wissen die Beratenden gar nicht, dass Hilfesuchende bereits einen Chatbot befragt haben.
Civic Data Lab: Welche Vorsichtsmaßnahmen raten Sie konkret?
Engelhardt: Aus meiner Perspektive müssen hier der Datenschutz, die Verschwiegenheitspflicht und die Vertraulichkeit besonders genannt werden. Klientendaten oder vertrauliche Informationen dürfen keinesfalls an externe KI-Systeme gegeben werden. Außerdem sollten Antworten der KI nie ungeprüft übernommen werden. Die Quelle muss nachvollziehbar recherchiert werden und natürlich muss sie rechtlich im entsprechenden Kontext gültig sein. Und nicht zu vergessen ist, dass Beratung nicht nur aus Sicht der Beratenden zu betrachten ist, sondern auch aus Sicht der Ratsuchenden. Wer hat überhaupt Zugang zu KI? Das ist eine Frage der digitalen Teilhabe. Wer kann KI bedienen? Das ist eine Frage der Kompetenz. KI ist inzwischen in vielen Anwendungen integriert.
Zukunftsszenario Beratung für Mensch-KI-Beziehungen?
Und ein Zukunftsszenario kann auch sein, dass Menschen künftig ihre „KI-Partner“ mit in eine Beratung bringen. Es gibt immer mehr Menschen, die KI in Form einer Beziehungs-KI oder in einer Trauer-KI verwenden. Es ist wahrscheinlich, dass auch das selbst zum Beratungsthema wird.