Los abogados podrían enfrentar sanciones severas por citaciones falsas generadas por IA, advierte un tribunal del Reino Unido

El Tribunal Superior de Inglaterra y Gales dice que los abogados deben tomar medidas más enérgicas para prevenir el mal uso de la inteligencia artificial en su trabajo.
En un fallo que vincula dos casos recientes, la jueza Victoria Sharp escribió que las herramientas de inteligencia artificial generativa como ChatGPT “no son capaces de realizar investigaciones jurídicas confiables”.
“Estas herramientas pueden producir respuestas aparentemente coherentes y plausibles a las indicaciones, pero esas respuestas coherentes y plausibles pueden resultar completamente incorrectas”, escribió el juez Sharp. “Las respuestas pueden hacer afirmaciones seguras que simplemente son falsas”.
Eso no significa que los abogados no puedan usar IA en sus investigaciones, pero dijo que tienen el deber profesional de “verificar la precisión de dichas investigaciones consultando fuentes autorizadas, antes de utilizarlas en el curso de su trabajo profesional”.
La jueza Sharp sugirió que el creciente número de casos en los que los abogados (incluidos, en el lado estadounidense, los abogados que representan a las principales plataformas de IA ) han citado lo que parecen ser falsedades generadas por IA sugiere que "se necesita hacer más para garantizar que se sigan las pautas y que los abogados cumplan con sus deberes ante el tribunal", y dijo que su fallo se remitirá a los organismos profesionales, incluido el Colegio de Abogados y la Law Society.
En uno de los casos en cuestión, un abogado que representaba a un hombre que buscaba daños y perjuicios contra dos bancos presentó una presentación con 45 citaciones; 18 de esos casos no existían, mientras que muchos otros "no contenían las citas que se les atribuían, no respaldaban las proposiciones para las que se citaban y no tenían ninguna relevancia para el objeto de la solicitud", dijo el juez Sharp.
En el otro caso, un abogado que representaba a un hombre que había sido desalojado de su casa en Londres redactó un expediente judicial citando cinco casos que parecían inexistentes. (La abogada negó haber usado IA, aunque afirmó que las citas podrían provenir de resúmenes generados por IA que aparecían en "Google o Safari"). La jueza Sharp declaró que, si bien el tribunal decidió no iniciar un proceso por desacato, esto no sienta precedente.
Evento Techcrunch
Boston, MA | 15 de julio
REGÍSTRATE AHORA“Los abogados que no cumplan con sus obligaciones profesionales a este respecto se arriesgan a severas sanciones”, añadió.
Ambos abogados fueron remitidos o se remitieron a sí mismos a organismos reguladores profesionales. El juez Sharp señaló que, cuando los abogados no cumplen con sus obligaciones ante el tribunal, las facultades del tribunal van desde la amonestación pública hasta la imposición de costas, el desacato o incluso la remisión a la policía.
techcrunch