Zum Inhalt springen

Daten und KI in der Strafrechtspflege – düstere Warnungen oder technikverliebte Heilsversprechen?

KI-gestützte Richterentscheidungen, datenbasierte Risikoeinschätzungen in der Bewährungshilfe, algorithmusgesteuerte Chatbot-Anwälte für Rechtsfragen: Ist das die Zukunft der Straffälligenhilfe in Deutschland? Welche ethischen Fragen rund um Daten und ihre Auswertungen ergeben sich daraus?


01. 08. 2024

„Wir brauchen eine positive Vorstellung davon, wie digitale Technologien, Daten und KI im Sinne der Strafrechtspflege und der Adressat*innen eingesetzt werden können – und auch wie nicht“, sagt Christian Ghanem, Experte in der Forschung der Digitalen Transformation in der Strafrechtspflege, zu Beginn unseres Gespräches.

Im Civic Data Lab schauen wir immer mal auch auf gesellschaftliche Datenentwicklungen und welche ethischen Fragen sich durch sie ergeben. Deshalb spreche ich heute mit Christian Ghanem. Er ist ausgebildeter Sozialpädagoge, hat viele Jahre in der Bewährungshilfe gearbeitet, seine Promotion im Feld der Bewährungshilfe verfasst und hat seit 2017 eine Professur an der Katholischen Stiftungshochschule München und der Technischen Hochschule Nürnberg inne. Seine zentralen Themen sind Resozialisierung, Digitalisierung und Wohlfahrtspflege. Ich frage ihn, welche Technologien es schon gibt und ob sie überhaupt schon auf die Spezifika in der Strafrechtspflege und der Sozialen Arbeit im Allgemeinen ausgerichtet sind.

Daten für automatisierte Standardberichte oder Assistenz von Richtern

„Es gibt u.a. die Entwicklung der automatisiert verfassten Berichte. Das können Standardberichte sein. Alle Daten und Informationen, die es zu der straffällig gewordenen Person gibt, werden in Kürze von der KI zusammengestellt und ich bekomme als Fachkraft einen Textvorschlag, zum Beispiel als Bewährungshelfer für den Bericht ans Gericht. Das könnte in Zukunft im täglichen Arbeiten sehr viel Zeit einsparen und hilfreich sein“, erzählt Ghanem. In Niedersachsen gäbe es beispielsweise seit über einem Jahr einen Test für eine KI-gestützte Richterassistenz. Die Technik soll bei vergleichbaren Verfahren helfen. Die KI werde mit den Verfügungen und Entscheidungen der jeweiligen Richter*innen an den Landgerichten Osnabrück und Hildesheim trainiert, um diese bei einer Vielzahl ähnlicher Entscheidungen zu entlasten. Bei dem Forschungsprojekt werden Chancen und auch Risiken der Technik im Blick behalten. „Klar ist, dass es am Ende immer der Mensch sein muss, der die Entscheidungen fällt“, so der Experte.

Sind statistische Risikoeinschätzungen in der Bewährungshilfe vertretbar?

„Im Bereich der Kriminalprävention gibt es bereits sogenannte Predictive Analytics, ´Vorausschauende Analysen`. Das sind Verfahren, bei dem mathematische Modelle auf große Datenmengen angewendet werden, um Muster im bisherigen Verhalten von Straftäter*innen zu identifizieren und zukünftige Handlungen vorherzusagen“, erzählt Christian Ghanem, schränkt aber ein, dass man in Deutschland noch nicht so weit wäre, wie in anderen Ländern. In Finnland beispielsweise seien bereits Risiko-Einschätzungen in der Bewährungshilfe im Einsatz: „Das System wird mit Daten gefüttert und erkennt Muster der Rückfälligkeit. So werden Voraussagen getroffen: Mit welcher Wahrscheinlichkeit wird jemand rückfällig? Kann man den Menschen aus dem Gefängnis entlassen? Kann man Bewährung geben oder muss eine Bewährung widerrufen werden?“

Alles eine Frage von Verantwortung, Normen, Selbstbestimmung und Datenschutz

Ich frage Christian Ghanem, ob das ethisch vertretbar sei, sich hierbei auf die Datenlage zu verlassen und ob es nicht ein Eingriff ins sehr Private ist. „Die Letztentscheidung muss hierbei immer ein Mensch haben. Aber nicht zu vergessen: Menschen treffen nicht selten diskriminierende, rassistische Entscheidungen. Statistische Systeme sind in vielen Fällen treffsicherer als der Mensch“, unterstreicht der ausgebildete Sozialpädagoge. Das seien eben die Herausforderungen in der Digitalen Transformation in der Strafrechtspflege: Die Akzeptanz der Technik, die Grenzen des Privaten, ein sich veränderndes Professionsverständnis, fehlende Transparenz, die Reproduktion von Diskriminierung bei Rhetorik der Objektivität. „Natürlich werden Fragen der Verantwortung und fehlender Normen aufkommen. Informationelle Selbstbestimmung und Datenschutz müssen in Zukunft ins Zentrum rücken“, so der Experte.

Besondere Entwicklungen sieht er in der Straffälligenhilfe bei Online-Rehabilitationsprogrammen und Virtual Reality (VR). „Von virtuellem Opfer-Empathie-Training, virtuellen Anti-Aggressions-Schulungen, Online-Selbstreflexionsübungen, bis hin zu Alltagstraining und Entlassvorbereitung von Menschen in Haft. Oder werden in anderen Ländern VR-Anwendungen für Pädophile Menschen entwickelt, um Verhaltensalternativen in risikoreichen Situationen einzuüben. „Gerade für Verhaltensübungen, Impulskontrolle und Förderung sozialer Kompetenzen haben diese Programme Potenzial. Potenzial besteht auch für die Forschung, da VR-Situationen eine vergleichsweise hohe Validität aufweisen“, so Ghanem. Gibt es Nachteile, frage ich ihn. „Ja, die Schwelle für Lockerungen kann höher werden. Wenn man alles erst mal in der virtuellen Realität machen kann, muss man die Straffälligen ja nicht wieder rausgehen lassen.“

Wandel birgt immer auch Gefahren. Wo gibt es Grenzen? Welche ethischen Kriterien für einen guten Einsatz von Daten und KI in der Straffälligenhilfe und in der Sozialen Arbeit im Allgemeinen muss es geben, will ich wissen. „Wir sollten uns immer fragen: Werden aktuelle Standards eingehalten? Ist ein nachhaltiger Einsatz gewährleistet? Wird ein erlebtes Problem gelöst? Werden die Nutzer*innen und die Praktiker*innen bei der Entwicklung einbezogen? Können diese Fragen mit ‚Ja‘ beantwortet werden, haben viele dieser Entwicklungen das Potenzial die Resozialisierung zu fördern gerade auch vor dem Hintergrund von Fachkräftemangel und Ressourcenknappheit.“

Wer sich intensiver mit Christian Ghanem zum Thema „KI in der Straffälligenhilfe“ austauschen möchte, kann ihm eine E-Mail an folgende Adresse senden: christian.ghanem@th-nuernberg.de


Autorin