20 de Diciembre de 2024
Edición 7117 ISSN 1667-8486
Próxima Actualización: 23/12/2024
Ocurrió en Australia

Otro abogado que copio y pegó con IA

Un abogado australiano realizó una presentación en un juzgado de familia citando jurisprudencia falsa que había buscado con una herramienta de inteligencia artificial y la jueza lo advirtió. El caso se remitió a una junta para su investigación tras el reconocimiento del profesional.

( 1046018200374884584| vecteezy.com)
Por:
Sebastián
Onocko
Por:
Sebastián
Onocko

El uso de inteligencia artificial y sus riesgos es un tema que suma casos alrededor del mundo donde abogados utilizan las herramientas de IA para elaborar sus escritos y terminan citando jurisprudencia falsa e “inventada” por el programa.

Esta vez en Australia, un país que incluso cuenta con una guía sobre el uso de la IA en la práctica del derecho. Un abogado de Melbourne  realizó una presentación ante un tribunal de familia donde incluía varios precedentes inventados por la IA, lo cual fue advertido por la jueza.

En primer lugar, la magistrada brindó al profesional la oportunidad de defenderse y alegar porque no se debería remitir su caso a la Junta de Servicios Jurídicos y al Comisionado para su investigación.

El letrado posteriormente reconoció la utilización de un programa llamado LEAP que incluía el uso de inteligencia artificial y que el mismo no había verificado la exactitud de la información proporcionada por el software antes de su presentación al tribunal.

 

La IA generativa no exime al jurista responsable de la necesidad de ejercer su juicio y habilidad profesional en la revisión del producto final que se proporcionará al tribunal

 

Así fue que, en un segundo pronunciamiento, y pese a la disculpa del abogado y su alegación de que no entendía bien cómo funcionaba el programa con IA, la jueza Amanda Humphreys decidió igualmente remitir el caso para su investigación, pese a aceptar las disculpas y considerar que era probable que no se repitiera.

“Acepto la disculpa ofrecida por el abogado como genuina y reconozco las medidas que ha tomado para mitigar el impacto de su conducta en la otra parte del litigio, lo que fue confirmado por el abogado de esa parte en una audiencia posterior. Reconozco la alegación del abogado en cuanto al estrés que ha experimentado como resultado de las consecuencias derivadas de su conducta y considero poco probable que la conducta objeto de esta decisión se repita” expresó la magistrada.

La decisión sobre la remisión del caso se fundó en la relevancia del tema, el interés público que había en el caso y la creciente utilización de la inteligencia artificial generativa, considerándose que “la Oficina de la Junta de Servicios Jurídicos de Victoria y el Comisionado son el órgano y el funcionario adecuado para determinar si debe haber alguna investigación adicional o medidas adoptadas con respecto a la conducta del abogado en este caso”

En su resolución, la magistrada alegó que “es importante destacar que las directrices publicadas por el Tribunal Supremo y el Tribunal del Condado de Victoria explican que la IA generativa y los grandes modelos de lenguaje crean resultados que no son producto del razonamiento y tampoco son una herramienta de investigación jurídica.”

Por lo tanto  “la IA generativa no exime al jurista responsable de la necesidad de ejercer su juicio y habilidad profesional en la revisión del producto final que se proporcionará al tribunal” concluyó.

El caso se suma a otros precedentes internacionales como en EEUU o España, ante supuestos donde la IA alucina, tema que explicamos en esta otra nota.


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Primera demanda colectiva en Argentina
La Justicia se mete en la clonación por IA
Lenguaje claro asistido por inteligencia artificial
Más claro, "echale" IA
Editar la prueba con IA y convencer al juez de que la admita
Video editado ¿tiene que ser probado?
NYT vs OpenIA & Microsoft
Hackeando la inteligencia artificial
Precedentes falsos creados por inteligencia artificial
Si la IA alucina, la abogada controla
Deepfakes y otras yerbas
Mi imagen, mi voz, mi derecho
Inteligencia artificial
ChatGPT para jueces

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2024 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486