Zum Inhalt springen

Daten und KI in der Strafrechtspflege – düstere Warnungen oder technikverliebte Heilsversprechen?

KI-gestützte Richterentscheidungen, datenbasierte Risikoeinschätzungen in der Bewährungshilfe, algorithmusgesteuerte Chatbot-Anwälte für Rechtsfragen: Ist das die Zukunft der Straffälligenhilfe in Deutschland? Welche ethischen Fragen rund um Daten und ihre Auswertungen ergeben sich daraus?

01. 08. 2024

„Wir brauchen eine positive Vorstellung davon, wie digitale Technologien, Daten und KI im Sinne der Strafrechtspflege und der Adressat*innen eingesetzt werden können – und auch wie nicht“, sagt Christian Ghanem, Experte in der Forschung der Digitalen Transformation in der Strafrechtspflege, zu Beginn unseres Gespräches.

Im Civic Data Lab schauen wir immer mal auch auf gesellschaftliche Datenentwicklungen und welche ethischen Fragen sich durch sie ergeben. Deshalb spreche ich heute mit Christian Ghanem. Er ist ausgebildeter Sozialpädagoge, hat viele Jahre in der Bewährungshilfe gearbeitet, seine Promotion im Feld der Bewährungshilfe verfasst und hat seit 2017 eine Professur an der Katholischen Stiftungshochschule München und der Technischen Hochschule Nürnberg inne. Seine zentralen Themen sind Resozialisierung, Digitalisierung und Wohlfahrtspflege. Ich frage ihn, welche Technologien es schon gibt und ob sie überhaupt schon auf die Spezifika in der Strafrechtspflege und der Sozialen Arbeit im Allgemeinen ausgerichtet sind.

Daten für automatisierte Standardberichte oder Assistenz von Richtern

„Es gibt u.a. die Entwicklung der automatisiert verfassten Berichte. Das können Standardberichte sein. Alle Daten und Informationen, die es zu der straffällig gewordenen Person gibt, werden in Kürze von der KI zusammengestellt und ich bekomme als Fachkraft einen Textvorschlag, zum Beispiel als Bewährungshelfer für den Bericht ans Gericht. Das könnte in Zukunft im täglichen Arbeiten sehr viel Zeit einsparen und hilfreich sein“, erzählt Ghanem. In Niedersachsen gäbe es beispielsweise seit über einem Jahr einen Test für eine KI-gestützte Richterassistenz. Die Technik soll bei vergleichbaren Verfahren helfen. Die KI werde mit den Verfügungen und Entscheidungen der jeweiligen Richter*innen an den Landgerichten Osnabrück und Hildesheim trainiert, um diese bei einer Vielzahl ähnlicher Entscheidungen zu entlasten. Bei dem Forschungsprojekt werden Chancen und auch Risiken der Technik im Blick behalten. „Klar ist, dass es am Ende immer der Mensch sein muss, der die Entscheidungen fällt“, so der Experte.

Sind statistische Risikoeinschätzungen in der Bewährungshilfe vertretbar?

„Im Bereich der Kriminalprävention gibt es bereits sogenannte Predictive Analytics, ´Vorausschauende Analysen`. Das sind Verfahren, bei dem mathematische Modelle auf große Datenmengen angewendet werden, um Muster im bisherigen Verhalten von Straftäter*innen zu identifizieren und zukünftige Handlungen vorherzusagen“, erzählt Christian Ghanem, schränkt aber ein, dass man in Deutschland noch nicht so weit wäre, wie in anderen Ländern. In Finnland beispielsweise seien bereits Risiko-Einschätzungen in der Bewährungshilfe im Einsatz: „Das System wird mit Daten gefüttert und erkennt Muster der Rückfälligkeit. So werden Voraussagen getroffen: Mit welcher Wahrscheinlichkeit wird jemand rückfällig? Kann man den Menschen aus dem Gefängnis entlassen? Kann man Bewährung geben oder muss eine Bewährung widerrufen werden?“

Alles eine Frage von Verantwortung, Normen, Selbstbestimmung und Datenschutz

Ich frage Christian Ghanem, ob das ethisch vertretbar sei, sich hierbei auf die Datenlage zu verlassen und ob es nicht ein Eingriff ins sehr Private ist. „Die Letztentscheidung muss hierbei immer ein Mensch haben. Aber nicht zu vergessen: Menschen treffen nicht selten diskriminierende, rassistische Entscheidungen. Statistische Systeme sind in vielen Fällen treffsicherer als der Mensch“, unterstreicht der ausgebildete Sozialpädagoge. Das seien eben die Herausforderungen in der Digitalen Transformation in der Strafrechtspflege: Die Akzeptanz der Technik, die Grenzen des Privaten, ein sich veränderndes Professionsverständnis, fehlende Transparenz, die Reproduktion von Diskriminierung bei Rhetorik der Objektivität. „Natürlich werden Fragen der Verantwortung und fehlender Normen aufkommen. Informationelle Selbstbestimmung und Datenschutz müssen in Zukunft ins Zentrum rücken“, so der Experte.

Besondere Entwicklungen sieht er in der Straffälligenhilfe bei Online-Rehabilitationsprogrammen und Virtual Reality (VR). „Von virtuellem Opfer-Empathie-Training, virtuellen Anti-Aggressions-Schulungen, Online-Selbstreflexionsübungen, bis hin zu Alltagstraining und Entlassvorbereitung von Menschen in Haft. Oder werden in anderen Ländern VR-Anwendungen für Pädophile Menschen entwickelt, um Verhaltensalternativen in risikoreichen Situationen einzuüben. „Gerade für Verhaltensübungen, Impulskontrolle und Förderung sozialer Kompetenzen haben diese Programme Potenzial. Potenzial besteht auch für die Forschung, da VR-Situationen eine vergleichsweise hohe Validität aufweisen“, so Ghanem. Gibt es Nachteile, frage ich ihn. „Ja, die Schwelle für Lockerungen kann höher werden. Wenn man alles erst mal in der virtuellen Realität machen kann, muss man die Straffälligen ja nicht wieder rausgehen lassen.“

Wandel birgt immer auch Gefahren. Wo gibt es Grenzen? Welche ethischen Kriterien für einen guten Einsatz von Daten und KI in der Straffälligenhilfe und in der Sozialen Arbeit im Allgemeinen muss es geben, will ich wissen. „Wir sollten uns immer fragen: Werden aktuelle Standards eingehalten? Ist ein nachhaltiger Einsatz gewährleistet? Wird ein erlebtes Problem gelöst? Werden die Nutzer*innen und die Praktiker*innen bei der Entwicklung einbezogen? Können diese Fragen mit ‚Ja‘ beantwortet werden, haben viele dieser Entwicklungen das Potenzial die Resozialisierung zu fördern gerade auch vor dem Hintergrund von Fachkräftemangel und Ressourcenknappheit.“

Wer sich intensiver mit Christian Ghanem zum Thema „KI in der Straffälligenhilfe“ austauschen möchte, kann ihm eine E-Mail an folgende Adresse senden: christian.ghanem@th-nuernberg.de

Autorin

Verwandte Lernangebote

Data Ethic Essentials

2-3 Stunden englisch
Was bedeutet Datenethik und vertrauenswürdige KI? Verantwortungsbewusste Entscheidungen im Umgang mit Daten sind wichtig um effektive und gerechte Lösungen zu schaffen. Dieser Kurs zeigt dir anhand realer Beispiele die Grundlagen des ethischen Datenmanagements und verleiht dir ein Verständnis von Datenethik, welches dir dabei hilft, deine eigenen Praktiken bewerten und verbessern zu können.
von Open Data Institute
Mehr erfahren

Data Science Ethics

4 Wochen á 3-4 Stunden englisch
In diesem Kurs lernst du, ethische Fragen im Bereich der Datenwissenschaft zu analysieren. Die Grundlage bildet ein ethischer Rahmen, der gemeinsame Werte umfasst, um richtig von falsch zu unterscheiden. Der Kurs vermittelt dir, wie du ethische Aspekte von Datenschutz, Datenteilung und algorithmischer Entscheidungsfindung durchdenken kannst.
von The University of Michigan
Mehr erfahren

Daten- und Algorithmenethik

7 Wochen á 2 Stunden CC-BY-SA 4.0
In diesem Kurs erfährst du, wie moralische Vorstellungen unserer realen Welt Daten und Algorithmen beeinflussen. Er gibt einen Überblick über Moraltheorien sowie Formen und Ausprägungen von Daten- und Algorithmenethik in der aktuellen Anwendung von KI-Ansätzen und zeigt Handlungsempfehlungen für eine ethisch korrekte Verarbeitung von Daten und Gestaltung von Algorithmen auf.
von Hochschule Wirtschaft und Recht Berlin
Mehr erfahren

Mehr aus dem Blog

  • #CDL News
  • #Machen

Data-driven Fundraising, die Zukunft hat begonnen

Fundraising umfasst alle Maßnahmen zur Akquise von Mitteln für gemeinnützige Organisationen und soziale Projekte. Wenn es um finanzielle Mittel geht, ist ein effizienter Einsatz von Ressourcen eine Grundbedingung für erfolgreiches Fundraising. Der Experte Hans-Josef Hönig zeigt, welche Rolle Daten dabei spielen.
Weiterlesen
  • #CDL News

Barrieren abbauen, Brücken bauen: Awareness und Diversität im Fokus des Civic Data Lab

Die Gesellschaft ist vielfältig! Erkennen wir es an! Die Förderung von Offenheit, Vielfalt und Toleranz sowie die aktive Bekämpfung von Diskriminierung müssen zentrale Aufgaben zivilgesellschaftlicher und politischer Arbeit sein.
Weiterlesen
  • #CDL News
  • #Lernen

Data-Storytelling im sozialen Bereich: Mit Geschichten Herzen und Spenden gewinnen

In einer Zeit des stetig wachsenden Überangebots an medialen Informationsangeboten stehen soziale Organisationen vor einer enormen Herausforderung: Wie können wir mit unseren Botschaften die Herzen der Menschen erreichen und sie zum Handeln bewegen, über soziale Themen seriös informieren und Vertrauen in uns als Organisation schaffen? Data-Storytelling Experte Jörg Hoewner erklärt, wie gute Datengeschichten gelingen.
Weiterlesen