Waffengleichheit bei der KI-Nutzung von Richter:innen und Anwalt:innen erforderlich

Sophie Martínez, Juristin und Expertin für Digitalisierung im Recht, gab in der Presse ein Interview zum Thema „Risiken und Chancen beim Einsatz künstlicher Intelligenz (KI)“ und betonte das Erfordernis der Waffengleichheit bei der Technologienutzung zum Wohl des Rechtsstaates, insbesondere im Bezug auf die „KI-Verordnung“ („AI-Act“), die KI reguliert. Die Rechtspflege zähle aktuell zu den Hochrisikobereichen laut AI Act und sehe sehr strenge Auflagen vor. Dadurch entstehende ungleichen technologischen Ausstattung der Gerichte im Vergleich zu Anwaltskanzleien könnten zu Ungleichheiten in der Technologienutzung zwischen Richter:innen und Anwält:innen führen. Man dürfe die Justiz nicht schwächen, indem man ihr State-of-the-Art-Tools vorenthalte, sondern müsse die Waffengleichheit zum Wohl des Rechtsstaats sichterstellen.

Zudem könnten sich Jurist:innen einen Arbeitstag pro Woche durch den Einsatz von KI ersparen, wenn diverse Recherchearbeiten mit Hilfe von KI erledigt werden könne. Dabei werde nicht einfach ChatGPT eingesetzt, das als Sprachprogramm grundsätzlich nicht als Recherchetool geeignet sei, sondern arbeiten die juristischen Fachverlage zusätzlich mit anderen KI, die gut suchen können.

Zur Sicherstellung einer verlässlichen Arbeitsgrundlage der KI müssten die Dokumente und Inhalte, auf die man sich beziehe möchte, selbst eingespielt werden (Grounding). Die Wahrscheinlichkeit eines Irrtums werde dadurch verkleinert, da dann nur auf diese Quellen gegriffen werde; eine Garantie auf Fehlerfreiheit gebe es aber nicht. KI tue sich auch schwer mit zeitlichen Schichtungen, der KI-Einsatz im Hintergrund sei hier komplex und brauche man besser strukturierte Daten.

Die Einbeziehung von Jurist:innen bei der Entwicklung von KI sei von Beginn an – neben dem Techniker – erforderlich. Man müsse schon von Anfang an die Qualität der Daten sicherstellen, auch eventuelle Voreingenommenheiten in Frage stellen, und Grenzen aus Gründen des Datenschutzes setzen. Daten können bei sogenannten Enterprise-Lösungen geschützt werden, bei allen Tools, die gratis angeboten werden, sei nicht davon auszugehen, dass die Daten geschützt seien.

Wir wissen nicht, was in der Blackbox der generativen KI passiere und ob das Ergebnis richtig sei, weshalb KI die Entscheidung derzeit höchstens dort treffen könne, wo es einfache Algorithmen gebe, wie z.B. Strafmandate für Schnellfahrer. Junge angehende Jurist:innen müssten besonders im kritischen Denken gut ausbildet werden, da die Recherchen teilweise an KI ausgelagert werden können, jedoch die Ergebnisse kritisch hinterfragt werden müssen.

Hier geht es zum Beitrag in der Presse ….

Teilen mit: