Wie KI in der Justiz einsetzen?

Künstliche Intelligenz verspricht, Richterinnen und Richter in ihren Entscheidungen zu unterstützen. Tatsächlich macht sie deren Entscheidungen und Aufgaben aber komplexer, schreibt Ayisha Piotti.
- Vorlesen
- Anzahl der Kommentare 1 Kommentar
Die künstliche Intelligenz (KI) transformiert derzeit unsere Gesellschaft. Jenseits von den vieldiskutierten Systemen wie Chat GPT oder Dall-E, das Bilder generieren kann, hat die Technologie auch Einzug gehalten in die tägliche Arbeit von Anwältinnen und teilweise sogar von Richtern. Derzeit befinden sich solche Anwendungen zwar noch in der Anfangsphase, doch die KI hat das Potenzial, unser Justizsystem zu verändern. Sie verspricht nicht nur wesentliche Vorteile, sondern wirft auch neue ethische und rechtliche Fragen auf. Und auch die Rollen und Kompetenzanforderungen von Anwälten und der Richterinnen werden sich ändern.
Anwaltskanzleien und Gerichte werden in Zukunft effizienter arbeiten und repetitive Aufgaben automatisieren können. Der heute notorische Rückstau an Fällen bei Gerichten wird dadurch hoffentlich verringert. Schon heute werden KI-gestützte Systeme von Juristinnen und Juristen eingesetzt, beispielsweise um grosse Datenmengen zu analysieren und Verträge zu prüfen. Und einige Gerichte in den USA setzen KI-Systeme ein, um sie bei Entscheidungen der Strafzumessung zu unterstützen oder die Rückfallgefahr von Straffälligen vorauszusagen.

Allerdings gibt es Fallstricke: Heutige Algorithmen der KI sind häufig nicht transparent genug, um die hohen Anforderungen der Rechenschaftspflicht in der Justiz zu erfüllen. Kritikerinnen und Kritiker befürchten ausserdem, dass KI-Systeme Voreingenommenheit und Diskriminierung in der Rechtsprechung verstärken könnten. Denn die Zuverlässigkeit von KI-Systemen hängt von der Qualität der eingegebenen Daten ab. Wenn KI-Unterstützungssysteme auf der Grundlage von voreingenommenen Daten trainiert werden, kann dies zu ungerechten Gerichtsurteilen führen.
Um solche unbeabsichtigten Folgen zu minimieren, muss man KI-Systeme zwingend rigoros testen, bevor man sie einsetzt. Ausserdem braucht es neue regulatorische Leitlinien. Die EU stuft den Einsatz von KI in der Justiz zurecht als Hochrisikoanwendung ein und wird sie im derzeit diskutierten KI-Gesetz in Bezug auf unter anderem Transparenz, Aufsicht und Cybersicherheit streng zu regulieren.
Für mich gehört die Rechtsprechung zu den sensiblen und kritischen Bereichen unseres Lebens, in dem KI-Systeme den Menschen nicht ganz ersetzen dürfen. Um die Rechenschaft zu garantieren, müssen wir Menschen in das System einbinden. Ich bin überzeugt, dass es den Menschen als Wächter der KI braucht. Richterinnen werden in Zukunft nicht nur Urteile fällen, sondern auch darüber entscheiden müssen, wie KI bei der Urteilsfindung zum Einsatz kommt. Sie müssen die Vor- und Nachteile der KI kennen und die damit verbundenen Spannungsfelder im Auge behalten und diese in bewussten Entscheidungen austarieren.
Ein solches Spannungsfeld ist beispielsweise jenes zwischen Schnelligkeit und Gründlichkeit. Die KI ist zweifellos schnell, und mache Juristen argumentieren, dass aufgeschobene Gerechtigkeit verweigerte Gerechtigkeit ist. Eine unvollkommene Entscheidung, die heute gefällt wird, kann daher besser sein als eine perfekte Entscheidung, die gar nicht gefällt wird.
«Wir müssen Menschen in das System einbinden.»Ayisha Piotti
Ein weiteres Spannungsfeld ist jenes zwischen Zweckmässigkeit und Sicherheit. Heute gibt es noch keine Standards, welche den Einsatz von KI in der Justiz sowie deren Gültigkeit und Zuverlässigkeit regeln. Richter müssen ihr Urteilsvermögen einsetzen, wenn sie sich in ihrer Arbeit von der KI unterstützen lassen.
Oft kommerziell
Ein drittes Dilemma ergibt sich aus der Tatsache, dass heute KI häufig als kommerzielle und nicht als quelloffene Technologie entwickelt wird. Ich denke, Entwicklerinnen und Entwickler haben ein berechtigtes Interesse am Schutz ihrer Geschäftsgeheimnisse, doch dieses kollidiert mit unserm Anspruch, dass juristische Entscheidungen nachvollziehbar sein müssen. Wenn wir der Justiz KI-Wahrscheinlichkeitsanalysen von DNA-Abgleichen und Entscheidungshilfen bei der Strafzumessung zur Verfügung stellen möchten, heisst das in vielen Fällen, bei der Transparenz Kompromisse einzugehen.
Die KI hat das Potenzial, die Rechtsprechung effizienter zu gestalten, zu beschleunigen und qualitativ zu verbessern. In den genannten Spannungsfeldern wird es aber darum gehen, abzuwägen und pragmatische Kompromisse zu treffen. Als Gesellschaft müssen wir gemeinsam definieren, wie diese aussehen sollen. Und alle Wächterinnen und Wächter der KI – allen voran Richterinnen und Richter – müssen wir auf ihre neue und zusätzliche Aufgabe vorbereiten und ihnen das KI-spezifische Fachwissen vermitteln.
Kommentare
Zitat: «Wir müssen Menschen in das System einbinden.» Heute ist diese Einbindung doch bereits der Normalfall. Wer als Jurist etwa ChatGPT verwendet um die für einen Fall relevanten Gesetzesparagraphen zusammenzustellen, der teilt Drittparteien wahrscheinlich nicht einmal mit, dass er ChatGPT eingesetzt hat. Und als verantwortlicher Jurist wird er die Ausgaben von ChatGPT auch alle selbst überprüfen. Das bedeutet, dass KI in der Justiz auch eingesetzt werden kann ohne dass jemand überhaupt davon erfährt. Der Jurist hat nun einfach einen unsichtbaren Helfer, Klar gibt es auch den Einsatz von KI im Bereich der Beweis- und Entscheidungsfindung wie oben erwähnt bei DNA-Abgleichen. Doch auch ohne den Einsatz von KI gilt der obige Satz (Zitat): „Richter müssen ihr Urteilsvermögen einsetzen, wenn sie sich in ihrer Arbeit von der KI [oder irgend einem anderen Tool] unterstützen lassen.“ Wenn es nicht so wäre, bräuchte es irgendwann gar keine menschlichen Richter mehr, dann könnte KI diese Rolle übernehmen. Auf absehbare Zeit sollten wir aber automatisch erstellte Richterurteile nicht zulassen. Denn Richter wissen mehr über Menschen als die heutigen rein textbasierten KI-Verfahren je wissen können.