Ein Richter in Kolumbien zog den populären Chatbot zu Rate, um medizinische Rechte eines Kindes abzuwägen
Mit steigender Nutzung von ChatGPT mehren sich auch Berichte über problematische Anwendungsbereiche. In dem Irrglauben, dass die verblüffend überzeugenden Antworten des Chatbots auf jede Frage auch richtig seien, glauben manche Anwender eine Arbeitsentlastung darin gefunden zu haben. In diesem Zusammenhang sorgt nun ein weiterer Fall für Aufsehen: Ein kolumbianischer Richter hat zugegeben, dass er die künstliche Intelligenz von ChatGPT für eine Urteilsfindung zu Rate gezogen hat.
Juan Manuel Padilla vom Arbeitsgericht in Cartagena hat entschieden, dass die Behandlungskosten eines autistischen Minderjährigen von der Krankenkasse übernommen werden sollten, da dessen Familie nur über ein begrenztes Einkommen verfüge. Dieses Urteil mag an sich nicht brisant sein, sehr wohl aber die Art und Weise, wie der Richter zu seinem Entschluss gekommen ist. Er habe eigenen Angaben zufolge zwar Präzedenzfälle zur Urteilsfindung herangezogen, aber auch Fragen zum Fall an ChatGPT gestellt.
Unterstützung für Richter, kein Ersatz
Wie „The Guardian“ berichtet, geht aus den juristischen Unterlagen hervor, dass er ChatGPT folgendermaßen um Rat gefragt hat: „Sind autistische Minderjährige von der Zahlung von Gebühren für ihre Therapien befreit?“ Daraufhin habe die künstliche Intelligenz geantwortet: „Ja, das ist richtig. Nach den Vorschriften in Kolumbien sind Minderjährige, bei denen Autismus diagnostiziert wurde, von der Zahlung von Gebühren befreit.“
Der Richter rechtfertigte die Verwendung des KI-Tools damit, dass solche Programme nicht das Urteilsvermögen der Justiz ersetzen sollen, sondern in erster Linie dafür nützlich wären, „das Verfassen von Texten“ zu erleichtern und somit Aufgaben zu übernehmen, für die sonst weitere Mitarbeiter benötigt würden. Dadurch könne Kolumbiens aufgeblasenes Rechtssystem effizienter gestalten werden.
Empört über dieses Vorgehen zeigte sich Juan David Gutierrez von der Universität Del Rosario in Bogota und forderte Richterinnen und Richter dazu auf, sich dringend einem Training in „digitaler Kompetenz“ zu unterziehen. Octavio Tejeiro, Richter am obersten Gerichtshof Kolumbien, äußerte hingegen, dass solche Mittel wahrscheinlich bald alltäglich werden würden und selbst er eine künftige Verwendung in Betracht ziehe: „Die Technologie muss als Instrument gesehen werden, das dem Richter hilft, sein Urteilsvermögen zu verbessern. Wir dürfen nicht zulassen, dass ein Werkzeug wichtiger wird als die Person.“
Computer sagt Nein
Fragt man ChatGPT hingegen direkt danach, ob man dem Chatbot bei der Urteilsfindung vor Gericht vertrauen sollte, scheint die künstliche Intelligenz das Problem denkbar einfach zu beantworten: „Nein, ChatGPT ist ein maschinelles Lernmodell und sollte nicht als Ersatz für menschliches Urteilsvermögen oder juristisches Fachwissen verwendet werden. Gerichtliche Entscheidungen sollten auf Basis von Gesetz und Beweismaterial von qualifizierten und erfahrenen Juristen getroffen werden.“