Roboter-Richter: Stehen wir vor einer Rückkehr der “Bouches de la loi”?
Zum Richter als “Mund des Gesetzes” führt auch in und nach der digitalen Transformation kein Weg zurück. Allerdings ist der Einsatz von KI in einem vorgelagerten Zeitpunkt der Entscheidungsfindung zukunftsträchtig – entsprechend technikaffin sollten RichterInnen sein.
Richter dürfen nicht mehr sein als “der Mund des Gesetzes”: Seit Montesquieu geistert dieser Gedanke durch die abendländische Rechtsfindung. Jene eigentlich lange überholte Vorstellung eines Auslegungsverbots, die zwischenzeitlich einem Auslegungsgebot Platz gemacht hat, könnte nun durch die Hintertür eine Renaissance erfahren. Je näher nämlich der Zeitpunkt rückt, an dem wir mit Hilfe von Quantencomputern unvorstellbare Datenmengen verarbeiten und dabei auf selbstlernende Algorithmen zurückgreifen können, desto verlockender erscheint die Aussicht, (auch) den justiziellen Zugang zum Recht umzustellen. Entsprechend hoch entwickelte Systeme arbeiten 24/7, sie werden nicht krank, und ihre Urteile und Beschlüsse sind weder beeinflusst von Vorurteilen noch von Verzerrungsfaktoren wie Tageszeit, persönlichen Vorlieben oder genereller persönlicher Strenge bzw. Nachsicht. Ließen sich all diese “Bias und Noise”-Faktoren, wie sie die aktuelle Forschung bezeichnet, künftig mittels automatisierter Rechtsprechung vermeiden?
Wie die Paneldiskussion der Verfasserin zu “Roboter in Roben” mit drei hochrangigen RichterInnen auf dem aktuellen AnwaltsZukunftsKongress Mitte Oktober in Köln gezeigt hat, ist die Antwort ein klares: Jein. Denn da ist zunächst einmal die Sache mit der Akzeptanz: “Computer sind nicht empathisch.” In einem Zeitalter, in dem Rechtsuchende die Schranken der Gerichte längst nicht mehr als Justizunterworfene, sondern als Souverän betreten, müssen sie zuallererst einmal nachvollziehen können, was da vor sich geht. Erst durch ihr eigenes Verständnis verleihen sie der Rechtsfindung tatsächlich Geltungskraft. Sobald automatisierte Systeme ins Spiel kommen, ist in diesem Fall nicht nur technische Einsicht gefragt. Auch juristisch tun sich ernst zu nehmende Hürden auf. Insoweit denke man nur an den Urheberrechtsschutz für Algorithmen: Was, wenn sich eine Entscheidung nur teilweise begründen lässt, weil der Urheberrechtsinhaber die Entscheidungsregeln nicht (vollständig) offenlegen will oder kann? Was die Gefahr intransparenter Entscheidungsfindung angeht, gibt es allerdings mittlerweile auch Lösungsansätze in Form ausdifferenzierter Gütekriterien. Bekannte internationale Beispiele sind die ACM-Standards der Association for Computing Machinery, außerdem die FAT Principles for Accountable Algorithms. Diese Abkürzung steht für Fairness, Accountability – also Verantwortlichkeit – und Transparency in Machine Learning. Hier handelt es sich generell um eine zentrale KI-Herausforderung.
Passend dazu hat die KI-Enquete-Kommission dem Deutschen Bundestag Ende Oktober 2020 ein durch Widerspruch geltendes Recht auf menschliche Bearbeitung ans Herz gelegt. Entsprechend mehren sich die Stimmen, die KI in einem vorgelagerten Stadium der Entscheidungsfindung eingesetzt sehen wollen. Tatsächlich eignen sich zahlreiche Rechtsbereiche dafür, über ein automatisiertes Vorverfahren nachzudenken. Nur ein Beispiel ist die Ermittlung des familienrechtlichen Unterhalts. Im Falle eines Widerspruchs ließe sich in ein nicht automatisiertes streitiges Verfahren nach herkömmlichem Vorbild übergehen. Seit Langem bekannt ist dieser Handlungsmechanismus im Bereich der Mahnverfahren; dass es sich beim automatisierten gerichtlichen Mahnverfahren um den bekanntesten Ausgangspunkt aller justiziellen Automatisierungsbemühungen handelt, ist kein Zufall.
Schließlich zeigt ein Blick in die Verfassung, dass wir hier nicht nur von einer organisatorischen Frage sprechen. Vielmehr zeugt das Grundgesetz von der Einstellung unseres Staates zum Recht als einem Kulturgut. Nicht umsonst gibt es in Art. 79 Abs. 3 GG eine Ewigkeitsklausel, die unter anderem Verfassungsänderungen verbietet, durch die “die in den Artikeln 1 und 20 niedergelegten Grundsätze berührt werden”. Entsprechenden naturrechtlichen Grundsätzen in Form der Menschenwürde korrespondiert auf struktureller Ebene die Vorgabe, dass die Staatsgewalt zwar durch besondere Organe der Rechtsprechung ausgeübt werden mag. Das ändert aber nichts daran, dass sie als solche vom Volke ausgeht, und damit ist dann zweifellos die menschliche Bevölkerung gemeint. Dadurch zieht letztlich die Verfassung höchstselbst eine rote Linie vor allzu gewagte Spekulationen.
Was bleibt, ist der Blick auf die in Köln zitierte berühmt-berüchtigte Praxislücke: Der Umstand, dass Art. 97 GG gleichzeitig die richterliche Unabhängigkeit schützt, sollte nämlich umgekehrt keine Entschuldigung dafür sein, Verfügungen auch im Jahre 2021 noch “unleserlich in die Akte zu schmieren”, maximal ein analoges Diktiergerät, aber kein Home-Terminal zu besitzen und die Vorschrift über Verhandlungen im Wege der Bild- und Tonübertragung nach § 128a ZPO nur vom Hörensagen zu kennen. Auch das ist aber offenbar bei manchen – oft älteren – Richterinnen und Richtern gelebter Alltag. Wenn hier Supervisionsprogramme als freiwillige Angebote alles sind, was sich dem entgegensetzen lässt, ist das nicht sehr ermutigend. Wenigstens bei der Auswahl des richterlichen Nachwuchses sollte Technikaffinität unbedingt Teil des Anforderungsprofils sein müssen. Das gilt umso mehr, als die RichterInnen der Zukunft auch in einem nur technikgestützten Alltag vollständig verstehen müssen, was in ihren Dezernaten vor sich geht. Solange und soweit das versäumt wird, droht eine schleichende Selbstentmündigung, die nach allem Vorgesagten wirklich fatal wäre.
Dr. Anette Schunder-Hartung, RAin, ist Inhaberin von aHa Strategische Geschäftsentwicklung, Frankfurt a. M. Ursprünglich aus dem Vergaberecht kommend, berät und coacht sie seit vielen Jahren JuristInnen und Angehörige verwandter Berufsgruppen auf dem Weg in eine erfolgreichere Zukunft.
Schunder-Hartung, BB 2021, Heft 49, Umschlagteil, I