Künstliche Intelligenz im Strafverfahren
Stellungnahme zur Beteiligung an der Bund-Länder-Arbeitsgruppe
Die Neue Richtervereinigung bedankt sich für die Beteiligung in diesem präliminären Stadium einer zentralen Zukunftsentscheidung für die baden-württembergische Justiz. Die Datafizierung der Gesellschaft wirkt sich unzweifelhaft auch auf den Justizdienst aus, doch warnen wir vor einer frühzeitigen und partikularen Anwendung von KI-Systemen, besonders in der Strafjustiz.
KI-Begriff
An erster Stelle steht begriffliche und technische Klarheit. Der Landesgesetzgeber muss eindeutig entscheiden, was er unter dem Begriff KI (Künstliche Intelligenz) versteht. Dies sollte durch Legaldefinition oder jedenfalls durch klare Äußerungen in den Gesetzgebungsmaterialien erfolgen. Hieran sind alle Folgeentscheidungen zu messen.
Versteht man den Begriff KI weit und fasst darunter alle modernen, komplexen Systeme zur Verarbeitung großer Datenmengen, besteht ein sehr großer Anwendungsspielraum. Zugleich sinkt das (verfassungsrechtliche und lebenspraktische) Einsatzrisiko: Systeme der Massendatenverarbeitung können in gradueller Abstufung nach der (immer höheren) Komplexität zwar (eingeschränkt) selbstständig Muster erkennen und lernen (sog. Machine Learning), der Output ist allerdings anhand der angewendeten Algorithmen und dem zugespielten Datensatz prognostizierbar. Damit kann Transparenz hergestellt werden, doch ist die Maschine in diesem Fall kaum effektiver als der Programmiercode selbst. Ihre Verwendung ist verfassungsrechtlich an den Grundsätzen zur Verarbeitung von (umfangreichen) Datensätzen (Informationelle Selbstbestimmung: Art. 2 Abs. 1, 1 Abs. 1 GG) zu messen.
Beabsichtigt der Landesgesetzgeber KI im engeren Sinne einsatzfähig zu machen, wird die Nutzung von selbstlernenden, autonom agierenden und im Code nur noch im Rahmen der durch Programmierer vorhergesehenen Entwicklung und damit eingeschränkt prädeterminierten elektronischen Agenten – (simulierter) Intelligenz – möglich. Hier ist grundsätzlich nicht mehr nachvollziehbar, wie Input A Resultat A‘ verursacht. Es ist weder für Programmierer noch für den Endnutzer möglich, die maschinellen Entscheidungen (im Sinne eigener Autonomie) nachzuvollziehen, die die Kausalität des Resultats bestimmen. Solche KI-Systeme im engeren Sinne sind auf dem Markt bisher nur bedingt erhältlich, zeigen – soweit im Einsatz – aber besondere Risiken: Rassistische Diskriminierung (durch Trainingsdaten etwa für Gesichtserkennungssoftware), Tendenzen überzeichneter sozialer Stratifikation (bei Rückfallprognosen) und wissenschaftliche Unlauterkeit (Fiktion von Quellen anhand von Autorenprofilen aus dem maßgeblichen Feld genauso wie Urheberrechtsverstöße). Dem kann teils durch sorgfältige und staatliche überwachte Programmierung des Codes der KI, Auswahl der Trainingsdaten und sog. Explainable AI-Systeme vorgebeugt werden, wobei letztere teils selbst KI zum Einsatz bringen und also die Erklärbarkeitsproblematik vom einen auf das andere Instrument verschoben wird. All die benannten Risiken tauchen auch bei Machine-Learning-Software auf; die Übergänge sind nicht selten fließend. Je autonomer Software agiert und sich selbstbestimmt erweitert, desto wahrscheinlicher sind Entwicklungen, die im Vorfeld nicht kontrollierbar sind und damit staatliche Handlungsmacht an das System abgeben.
Hessendata-Entscheidung des Bundesverfassungsgerichts
Angesichts der fehlenden Nachvollziehbarkeit und Intransparenz des Datenverarbeitungsvorgangs, der durch KI im engeren Sinne erfolgt, erachtet das Bundesverfassungsgericht den Einsatz von Künstlicher Intelligenz für Polizeiarbeit ungeeignet. In der Hessendataentscheidung (BVerfG NJW 2023, 1196 Rn. 100 ff.) führt das Gericht unter Bezugnahme auf den Europäischen Gerichtshof (EuGH EuZW 2022, 706 Rn. 195) wie folgt aus:
“Besonderes Eingriffsgewicht kann je nach Einsatzart die Verwendung lernfähiger Systeme, also Künstlicher Intelligenz (KI), haben. Deren Mehrwert, zugleich aber auch ihre spezifischen Gefahren liegen darin, dass nicht nur von den einzelnen Polizistinnen und Polizisten aufgegriffene kriminologisch fundierte Muster Anwendung finden, sondern solche Muster automatisiert weiterentwickelt oder überhaupt erst generiert und dann in weiteren Analysestufen weiter verknüpft werden. Mittels einer automatisierten Anwendung könnten so über den Einsatz komplexer Algorythmen hinaus auch selbständig weitere Aussagen eines ‚predictive policing‘ getroffen werden. So könnten besonders weitgehende Informationen und Annahmen über eine Person erzeugt werden, deren Überprüfung spezifisch erschwert sein kann. Denn komplexe algorithmische Systeme könnten sich im Verlauf des maschinellen Lernprozesses immer mehr von der ursprünglichen Programmierung lösen, und die maschinellen Lernprozesse und die Ergebnisse der Anwendung könnten immer schwerer nachzuvollziehen sein. Dann droht zugleich die staatliche Kontrolle über diese Anwendung verloren zu gehen. Wird Software privater Akteure oder anderer Staaten eingesetzt, besteht zudem eine Gefahr unbemerkter Manipulation oder des unbemerkten Zugriffs auf Daten durch Dritte. Eine spezifische Herausforderung besteht darüber hinaus darin, die Herausbildung und Verwendung diskriminierender Algorithmen zu verhindern. Daher dürfen selbstlernende Systeme in der Polizeiarbeit nur unter besonderen verfahrensrechtlichen Vorkehrungen zur Anwendung kommen, die trotz der eingeschränkten Nachvollziehbarkeit ein hinreichendes Schutzniveau sichern.“
Das Bundesverfassungsgericht bindet den Einsatz von automatisierten Systemen (also KI) deshalb an diejenigen Eingriffsschwellen, die auch für den Einsatz eingriffsintensiver heimlicher Überwachungsmaßnahmen gelten, mithin an den Katalog des § 100b StPO. Das hessische Landespolizeigesetz hielt einer Kontrolle an diesem Maßstab nicht stand.
Anwendung auf die vorgeschlagenen Einsatzfelder
Unter Anwendung dieses Maßstabs scheidet der Einsatz von KI im engeren Sinne für viele der vorgeschlagenen Maßnahmen aus. Für allgemeine Vorermittlungen (z.B. Datenanalyse und Mustererkennung zur Erkennung von Serientaten) ist der Einsatz von KI unzulässig, besteht zu diesem Zeitpunkt der vom Bundesverfassungsgericht geforderte erhöhte Verdachtsgrad (gerade) noch nicht. Zur technischen Ermittlungsunterstützung (z.B. Bild- und Videoanalyse zur Gesichtserkennung und Deepfakes; Spracherkennung, -analyse und -übersetzung u.a. bei Kryptochats) dürfen KIs nur als Instrument der Aufklärung besonders schwerer Straftaten iSd § 100b Abs. 2 StPO eingesetzt werden. Damit sie hierfür ein sinnvolles Einsatzfeld vorweisen können, müssten verknüpfte Datenbanken vorgehalten werden. Zwar bestehen viele Einzeldatenbanken (zB für Stimmforensik) heute schon, doch müssten diese zum Zwecke der Mustererkennung miteinander (über die KI) verbunden werden. Dies wäre ein weiterer, durch das Bundesverfassungsgericht in der Hessendata-Entscheidung beanstandeter Eingriff in die informationelle Selbstbestimmung der Erfassten.
Der Auswertung großer Datenmengen (z. B. Auswertung und Vorbewertung von Bildern und Videos im Bereich der Kinder-/Jugendpornografie) steht entgegen, dass nur Fälle des § 184b Abs. 1 S. 1, Abs. 2 StGB unter § 100b Abs. 2f StPO fallen. Der Tatbestand des Kinderpornographiebesitzes (§ 184b Abs. 3 StGB) ist dementgegen keine besonders schwere Straftat in diesem Sinne. Weiterhin muss hierzu beachtet werden, dass die Intransparenz des Auswertungsvorgangs den Beweiswert des Auswertungsergebnisses vor Gericht stark beeinträchtigen, mitunter sogar aufheben kann. So haben etwa die Erkenntnisse der NCMEC aufgrund des Einsatzes automatischer Datenauswertung in Durchbrechung der sog. „Chain of Custody“ richtigerweise keinen Beweiswert vor deutschen Gerichten (Pschorr/Wörner, StV 2023, 274). Im Rahmen strafrechtlicher Prognosen (z.B. Gefahr der Rückfälligkeit bei Bewährung und Sicherungsverwahrung) wirkt sich die Intransparenz der Entscheidungsfindung besonders aus. Weil Prognoseentscheidungen immer auf eine Wahrscheinlichkeitsaussage beschränkt sind, ist für die Rechtsstaatlichkeit solcher Entscheidungen besonders bedeutsam, wie die Wahrscheinlichkeitsaussage zustande gekommen ist, um sie interpersonal referenzierbar zu machen. Trifft eine KI die Wahrscheinlichkeitsaussage, ist nur unter spezifischen Umständen nachvollziehbar, warum. Sie steht immer unter dem Verdacht, durch Diskriminierung zustande gekommen zu sein, ist die KI doch der menschlichen Vernunfteinsicht, von Hautfarbe oder sozialem Status nicht auf Straffälligkeit zu schließen, nicht mächtig. Es bedürfte einer umfangreichen und kostenintensiven laufenden IT-Betreuung, um Codeelemente, die Diskriminierungseffekte verursachen, händisch aus dem immer weiter wachsenden KI-System zu entfernen. Zugegebenermaßen ist damit die Beseitigung von Diskriminierung – anders als etwa beim Menschen, der regelmäßig aufgrund unterbewusster Prozesse vorurteilsbehaftet entscheidet – prinzipiell möglich, was einen großen Fortschritt nicht nur für die Strafverfolgung, sondern im ganzen Strafverfahren bieten könnte, doch sind die faktischen Voraussetzungen für dieses Resultat an realitätsfern hohe Hürden geknüpft, während die unkontrollierte Entstehung diskriminierenden Codes deutlich wahrscheinlicher ist. Anhand des Einsatzes von KI in der Gesichtserkennung US-amerikanischer Strafverfolgungsbehörden drängt sich letzterer Schluss auf.
Schlussendlich verbleibt der Einsatz als Rechercheinstrument in der richterlichen Assistenz. Zwar kann eine quellentreue, das Urheberrecht achtende KI in diesem Feld bedeutsame Unterstützung leisten (etwa durch Mustererkennung in zivilrechtlichen Massenverfahren), doch droht gleichzeitig der Ersatz spruchrichterlicher Entscheidungen durch automatisierte Ergebnisse. Zwar wird vorliegend betont, das Ziel sei (nur) justizielle Assistenz. Faktisch kann die Assistenz des vermeintlich überlegenen Computers den Nutzer schnell dazu verleiten, die Verantwortung für die Entscheidung auf das KI-System zu übertragen und auf die (aufwendige) Nachprüfung zu verzichten. Das gilt besonders, beachtet man die schon heute schmalen Personalressourcen der Justiz: Der Einsatz von KI-Assistenz kann dazu verleiten, die individuelle Entscheidungslast für einzelne Spruchkörper in der Erwartung zu erhöhen, die KI würde die Arbeit erleichtern – mit der Folge, dass keine gründliche Kontrolle mehr gewährleistet werden kann. Das hätte nach hiesiger Auffassung zur Folge, dass die Haftungsprivilegierung nach § 839 Abs. 1, 3 BGB keine Anwendung mehr finden könnte. Schließlich besteht kein Grund (mehr), den Staat zu enthaften, wenn er (jedenfalls partiell) die Verantwortung für Entscheidungen bzw. Ihre Vorbereitung vom (im Einzelnen als Mensch fehlenden) Beamten auf eine (scheinbar unfehlbare) Maschine überträgt. In der Gesamtschau erachtet die Neue Richtervereinigung den Einsatz von KI im Strafverfahren bisher für weitgehend ausgeschlossen. Denkbar wäre allenfalls, Large Language Models zur Kontrolle, Glättung und Verbesserung der Verständlichkeit spruchrichterlicher Entscheidungen einzusetzen. Ein einmal diktiertes Urteil könnte von unschönen Fehlern bereinigt werden und dem Spruchkörper würde eine Selbstkontrolle anhand publizierter Literatur und publizierten Entscheidungen ermöglicht, die zu einer sachorientierten Vereinheitlichung der Rechtsprechung und Vertiefung divergenter Entscheidungen im Sinne der Fortentwicklung des Rechts und damit zur weiteren Verbesserung der baden-württembergischen Justiz beitragen könnten.
Für die Fachgruppe Strafrecht der NRV
Dr. Simon Pschorr
Richter am Amtsgericht Singen