Von KI-Avataren bis hin zu virtuellen Tatorten: Gerichte setzen sich mit KI im Justizsystem auseinander

Stacey Wales umklammerte das Rednerpult und kämpfte mit den Tränen, als sie den Richter bat, dem Mann, der ihren Bruder erschossen hatte, die höchstmögliche Strafe wegen Totschlags zu geben.
Was dann geschah, schockierte die Anwesenden im Gerichtssaal in Phoenix letzte Woche: Ein von künstlicher Intelligenz generiertes Video mit dem Abbild ihres Bruders Christopher Pelkey teilte dem Schützen mit, dass ihm vergeben sei.
Der Richter sagte, er habe das Video sehr geschätzt und verurteilte den Schützen zu 10,5 Jahren Gefängnis – der Höchststrafe und mehr als die Staatsanwaltschaft gefordert hatte. Wenige Stunden nach der Anhörung am 1. Mai legte der Anwalt des Angeklagten Berufung ein.
Verteidiger Jason Lamm wird die Berufung nicht übernehmen, sagte jedoch, dass wahrscheinlich ein höheres Gericht darüber befragt werden wird, ob sich der Richter bei der Urteilsverkündung seines Mandanten zu Unrecht auf das KI-generierte Video verlassen hat.
Gerichte im ganzen Land beschäftigen sich mit dem Umgang mit der zunehmenden Präsenz künstlicher Intelligenz im Gerichtssaal. Schon bevor Pelkeys Familie KI nutzte, um ihm eine Stimme für die Opferauswirkungen zu geben – vermutlich ein Novum vor US-Gerichten –, richtete der Oberste Gerichtshof von Arizona ein Komitee ein, das bewährte KI-Praktiken erforscht.
In Florida setzte ein Richter kürzlich ein Virtual-Reality-Headset auf, um die Sichtweise eines Angeklagten zu veranschaulichen. Dieser hatte behauptet, er habe in Notwehr gehandelt, als er mit einer geladenen Waffe auf Hochzeitsgäste zielte. Der Richter wies seine Behauptung zurück.
Und in New York nutzte ein Mann ohne Anwalt einen KI-generierten Avatar, um seinen Fall in einem Gerichtsverfahren per Video zu vertreten. Es dauerte nur Sekunden, bis die Richter erkannten, dass der Mann, der sie auf dem Videobildschirm ansprach , nicht real war .
Experten sagen, dass der Einsatz von KI in Gerichtssälen rechtliche und ethische Bedenken aufwirft, insbesondere wenn sie effektiv eingesetzt wird, um Richter oder Geschworene zu beeinflussen. Sie argumentieren außerdem, dass dies unverhältnismäßige Auswirkungen auf marginalisierte Gruppen haben könnte, die strafrechtlich verfolgt werden.
„Ich kann mir vorstellen, dass diese Form des Beweises umstritten sein wird, auch weil sie Parteien mit mehr Ressourcen gegenüber Parteien ohne diese Vorteile begünstigen könnte“, sagte David Evan Harris, Experte für KI-Deepfakes an der Business School der UC Berkeley.
KI könne sehr überzeugend sein, sagte Harris, und Wissenschaftler untersuchten die Schnittstelle zwischen Technologie und Manipulationstaktiken.
Cynthia Godsoe, Juraprofessorin an der Brooklyn Law School und ehemalige Pflichtverteidigerin, sagte, da diese Technologie die Grenzen traditioneller Rechtspraktiken immer weiter verschiebe, müssten sich Gerichte mit Fragen auseinandersetzen, die sie nie zuvor abwägen mussten: Stimmt dieses KI-Foto wirklich mit der Aussage des Zeugen überein? Werden in diesem Video Größe, Gewicht oder Hautfarbe des Verdächtigen überzeichnet?
„Das ist definitiv ein beunruhigender Trend“, sagte sie, „denn er könnte noch stärker in Richtung gefälschter Beweise abdriften, von denen die Leute vielleicht nicht erkennen, dass sie falsch sind.“
Im Fall in Arizona sagte die Schwester des Opfers gegenüber Associated Press, sie habe die „Ethik und Moral“ des Schreibens eines Drehbuchs und der Verwendung des Bildes ihres Bruders, um ihm während der Urteilsverkündung eine Stimme zu geben, durchaus bedacht.
„Es war uns wichtig, die Sache mit ethischen und moralischen Grundsätzen anzugehen und sie nicht zu nutzen, um Dinge zu sagen, die Chris nicht sagen oder glauben würde“, sagte Stacey Wales.
Opfer können in Arizona ihre Erklärungen in jedem digitalen Format abgeben, sagte die Opferrechtsanwältin Jessica Gattuso, die die Familie vertrat.
Als das Video im Gerichtssaal abgespielt wurde, sagte Wales, dass nur sie und ihr Mann davon wussten.
„Das Ziel war, Chris menschlicher zu machen und den Richter zu erreichen“, sagte Wales.
Nachdem er es gesehen hatte, sagte Todd Lang, Richter am Obersten Gericht des Maricopa County, dass ihm „die Schönheit dessen, was Christopher“ in dem AI-Video sagte, gefiel.
„Es sagt auch etwas über die Familie aus“, sagte er. „Denn Sie haben mir erzählt, wie wütend Sie waren, und Sie haben die Höchststrafe gefordert, und obwohl Sie das wollten, haben Sie Chris erlaubt, aus seinem Herzen zu sprechen, so wie Sie es sahen.“
Im Berufungsverfahren, sagte der Anwalt des Angeklagten, könnten die Bemerkungen des Richters ein Faktor für die Aufhebung des Urteils sein.
___
Die Associated Press-Reporter Sarah Parvini in Los Angeles, Sejal Govindarao in Phoenix und Kate Payne in Tallahassee, Florida, haben zu diesem Bericht beigetragen.
ABC News