Zum Inhalt springen

„KI kann Beratung im Sozialen ergänzen, aber nicht ersetzen.“

Brauchen wir in Zukunft Beratung für Mensch-KI-Beziehungen? Was ist in der Beratung mit KI mit Vorsicht zu genießen? Und wie kann ich als Berater*in KI-Tools sinnvoll nutzen? Ein Gespräch mit Emily Engelhardt, Professorin für Digitale Transformation in Sozialen Handlungsfeldern und Gesellschaft, an der Fakultät für angewandte Sozialwissenschaften an der Hochschule München.


12. 08. 2025

Civic Data Lab: Frau Engelhardt, für welche Aufgaben könnte KI in der Beratung sinnvoll eingesetzt werden?

Engelhardt: Es gibt eine ganze Reihe von Einsatzmöglichkeiten. Aus der Perspektive der Beratenden kann KI zum Beispiel helfen, Formulare in Leichte Sprache zu übersetzen oder kleine Fragebögen zu generieren. Auch Bildmaterial ist denkbar, wie zum Beispiel Bildkarten, die Stimmungen repräsentieren, Metaphern oder Symbole. Für Beratende, die nicht selbst zeichnen können, kann das hilfreich sein. Eine weitere Möglichkeit kann die Transkription von Gesprächen sein. Hier kommen allerdings sofort Datenschutzfragen ins Spiel, denn ein automatisches Gesprächsprotokoll kann zwar objektiv aufzeichnen, es muss jedoch sichergestellt werden, dass keine vertraulichen Daten bei einem kommerziellen Anbieter gespeichert werden.

KI spürt keine Zwischentöne

Spannend ist auch, KI im Gespräch als eine Art „Co-Beraterin“ einzusetzen. Man fragt dann gemeinsam mit der ratsuchenden Person den Chatbot nach Ideen. Allerdings haben viele Ratsuchende das vielleicht schon selbst gemacht, und die Antworten sind oft nicht sehr tiefgehend oder nicht vollständig korrekt. Denn eine KI spürt keine Zwischentöne. Da ist menschliche Beratung eben stärker. Menschliche Berater*innen begleiten Ratsuchende dahin, selbst Antworten zu finden. KI hingegen ist auf schnelle Lösungen trainiert. Emotionen werden von ihr nur simuliert, nicht gefühlt. Trotzdem kann KI für manche Menschen, die keinen direkten menschlichen Kontakt wünschen, einen niedrigschwelligen Zugang zur Beratung schaffen.

E.EngelhardtPortrait

Civic Data Lab: Neben den bekannten generativen Sprachmodellen, was ist noch relevant?

Engelhardt: KI ist ja kein neues Phänomen. Neben Sprachmodellen gibt es die Robotik oder tragbare KI-Systeme, die im medizinischen Bereich genutzt werden. In der Beratung könnten solche Systeme theoretisch Gesundheitsdaten einbeziehen, die zum Beispiel für den psychosozialen Kontext relevant sind. Es geht hier um die Frage: Welche Informationen wollen wir erfassen, um gut beraten zu können? Dazu könnten smarte Matching-Systeme kommen, die auf Grundlage einiger Fragen eine passende Beraterin oder einen Berater vorschlagen.

Civic Data Lab: Wie kann ein*e Berater*in KI in die Arbeitsabläufe integrieren und was verändert sich fachlich dadurch?

Engelhardt: Denkbar ist, dass eine Beratungsfachkraft KI wie eine*n Kolleg*in zu Rate zieht. Zum Beispiel in einer Art Supervisionsgespräch oder als Unterstützung bei einer Fallberatung. KI kann andere Perspektiven einbringen, die man selbst vielleicht nicht eingenommen hätte.

Gutes Prompting ist bei der Arbeit mit KI in der Beratung essenziell
Wichtig dabei ist dann das sogenannte Prompting. Je klarer und gezielter die Eingabe, desto brauchbarer die Antwort. Trotzdem bleibt natürlich die eigene Fachlichkeit der Beratenden entscheidend, um zu prüfen, ob vorgeschlagene Methoden wirklich existieren oder passen. Hilfreich ist auch, sich Beispielprompts anzulegen. Das kann in Form von Fallvignetten stattfinden, um gezielt zu prüfen, in welchen Situationen KI sinnvoll befragt werden kann. Dabei ganz wichtig! Klient*innendaten gehören nicht in die frei zugängliche Chatbots, die wir alle inzwischen kennen.

Civic Data Lab: Welche rechtlichen Fragen müssen vor dem Einsatz von KI in der Beratung geklärt sein?

Engelhardt: Immer wenn KI benutzt wird, muss den Beratenden bewusst sein, dass die Daten beim Entwickler der KI landen. Aber vielleicht stellt die Organisation eine eigen betriebene KI-Lösung zur Verfügung. Eine solche sicherere Infrastruktur ist dabei optimal. Und ein weiterer wichtiger Punkt ist die Transparenz gegenüber den Klientinnen und Klienten. Wann muss ich offenlegen, dass ich KI genutzt habe? Das ist ja schon eine ethische Frage. Gleichzeitig ist nicht zu verhindern, dass Ratsuchende selbst KI verwenden. Und oft wissen die Beratenden gar nicht, dass Hilfesuchende bereits einen Chatbot befragt haben.

Civic Data Lab: Welche Vorsichtsmaßnahmen raten Sie konkret?

Engelhardt: Aus meiner Perspektive müssen hier der Datenschutz, die Verschwiegenheitspflicht und die Vertraulichkeit besonders genannt werden. Klientendaten oder vertrauliche Informationen dürfen keinesfalls an externe KI-Systeme gegeben werden. Außerdem sollten Antworten der KI nie ungeprüft übernommen werden. Die Quelle muss nachvollziehbar recherchiert werden und natürlich muss sie rechtlich im entsprechenden Kontext gültig sein. Und nicht zu vergessen ist, dass Beratung nicht nur aus Sicht der Beratenden zu betrachten ist, sondern auch aus Sicht der Ratsuchenden. Wer hat überhaupt Zugang zu KI? Das ist eine Frage der digitalen Teilhabe. Wer kann KI bedienen? Das ist eine Frage der Kompetenz. KI ist inzwischen in vielen Anwendungen integriert.

Zukunftsszenario Beratung für Mensch-KI-Beziehungen?

Und ein Zukunftsszenario kann auch sein, dass Menschen künftig ihre „KI-Partner“ mit in eine Beratung bringen. Es gibt immer mehr Menschen, die KI in Form einer Beziehungs-KI oder in einer Trauer-KI verwenden. Es ist wahrscheinlich, dass auch das selbst zum Beratungsthema wird.


In diesem Jahr ist Emily Engelhardts Buch zum Thema neu erschienen:
Engelhardt, E. & Kühne, S. (2025): Künstliche Intelligenz in der Beratung. Ein Kompass für die systemische Praxis. Göttingen: Vandenhoeck & Rupprecht


Autorin

Anja_Stoiser_gross

Anja Stoiser

Kommunikation Kontakt in HumHub


Mehr aus dem Blog...