Servicio de noticias
Producido externamente por una organización que confiamos cumple con las normas periodísticas.

Abogado australiano se disculpa por errores generados por inteligencia artificial en caso de asesinato

El letrado presentó citas falsas y sentencias inexistentes creadas por inteligencia artificial en un caso ante el Tribunal Supremo de Victoria

15 de agosto de 2025 - 6:14 AM

Salida del Tribunal Supremo de Victoria, Melbourne. (AP Foto/Rod McGuirk) (Rod McGuirk)

Melbourne, Australia — Un abogado de alto rango en Australia se disculpó ante un juez por presentar alegatos en un caso de asesinato que incluían citas falsas y sentencias judiciales inexistentes generadas por inteligencia artificial.

El error en el Tribunal Supremo del estado de Victoria es otro más en una letanía de percances que la IA ha causado en los sistemas de justicia de todo el mundo.

El abogado defensor Rishi Nathwani, quien ostenta el prestigioso título legal de Asesor del Rey, asumió ‘toda la responsabilidad’ por presentar información incorrecta en los alegatos en el caso de un adolescente acusado de asesinato, según documentos judiciales vistos por The Associated Press el viernes.

‘Estamos profundamente apenados y avergonzados por lo ocurrido’, dijo Nathwani al juez James Elliott el miércoles, en nombre del equipo de defensa.

Los errores generados por la IA causaron un retraso de 24 horas en la resolución de un caso que Elliott esperaba concluir el miércoles. Elliott dictaminó el jueves que el cliente de Nathwani, que no puede ser identificado por ser menor de edad, no era culpable de asesinato debido a una discapacidad mental.

‘A riesgo de minimizar la situación, la forma en que se han desarrollado estos acontecimientos es insatisfactoria’, dijo Elliott a los abogados el jueves.

‘La capacidad del tribunal para confiar en la exactitud de los alegatos presentados por los abogados es fundamental para la debida administración de justicia’, añadió Elliott.

Las alegaciones falsas incluían citas inventadas de un discurso ante la legislatura estatal y citas de casos inexistentes supuestamente del Tribunal Supremo.

Los errores fueron descubiertos por los asociados de Elliott, que no pudieron encontrar los casos y solicitaron a los abogados defensores que proporcionaran copias.

Los abogados admitieron que las citas ‘no existen’ y que la presentación contenía ‘citas ficticias’, según los documentos judiciales.

Los abogados explicaron que comprobaron que las citas iniciales eran exactas y erróneamente asumieron que las demás también lo serían.

Las alegaciones también se enviaron al fiscal Daniel Porceddu, quien no comprobó su exactitud.

El juez señaló que el Tribunal Supremo publicó el año pasado directrices sobre cómo los abogados utilizan la IA.

‘No es aceptable que se utilice la inteligencia artificial a menos que el producto de ese uso sea verificado de forma independiente y exhaustiva’, dijo Elliott.

Los documentos judiciales no identifican el sistema de inteligencia artificial generativa utilizado por los abogados.

En un caso comparable en Estados Unidos en 2023, un juez federal impuso multas de $5,000 a dos abogados y a un bufete de abogados después de que se culpara a ChatGPT de su presentación de investigaciones legales ficticias en una demanda por lesiones en la aviación.

El juez P. Kevin Castel dijo que actuaron de mala fe. Pero reconoció sus disculpas y las medidas correctivas adoptadas al explicar por qué no eran necesarias sanciones más severas para garantizar que ellos u otros no vuelvan a permitir que las herramientas de inteligencia artificial les impulsen a producir historia legal falsa en sus argumentos.

Más tarde, ese mismo año, se citaron más resoluciones judiciales ficticias inventadas por la IA en documentos legales presentados por los abogados de Michael Cohen, un ex abogado personal del presidente de Estados Unidos, Donald Trump. Cohen se echó la culpa, diciendo que no se había dado cuenta de que la herramienta de Google que estaba utilizando para la investigación jurídica también era capaz de las llamadas alucinaciones de la IA.

La jueza del Tribunal Superior británico Victoria Sharp advirtió en junio que proporcionar material falso como si fuera genuino podría considerarse desacato al tribunal o, en los ‘casos más flagrantes’, pervertir el curso de la justicia, lo que conlleva una pena máxima de cadena perpetua.

Popular en la Comunidad


Ups...

Nuestro sitio no es visible desde este navegador.

Te invitamos a descargar cualquiera de estos navegadores para ver nuestras noticias: