Diario Judicial
12 de Marzo de 2025
Edición 7170 ISSN 1667-8486
Próxima Actualización: 13/03/2025

Un estudiante con IA no es el mejor abogado

Son cada vez más los casos donde se utiliza erroneamente la inteligencia artificial ante los juzgados y ahora se sumó un nuevo precedente donde una mujer, en vez de buscar un abogado, le pidió ayuda a una estudiante que escribió un descargo con ayuda de ChatGPT.

Un estudiante con IA no es el mejor abogado
(Imagen generada por IA con tecnología DALL-E 3)
Por:
Sebastián
Onocko
Por:
Sebastián
Onocko

El mal uso de la inteligencia artificial por parte de los abogados se esta saliendo de control y los tribunales empiezan a tomar medidas. Es que cada vez aparecen con mayor frecuencia los casos reportados donde letrados utilizan erróneamente la IA, lo que afecta al proceso y ahora se extiende incluso a las partes.

Este 2025 ya nos ha brindado varios casos que trascendieron en la materia, uno muy resonante ocurrió en las Islas Caimán, donde una mujer litigaba sobre la venta de una propiedad en las islas, y en la resolución de la división civil de la Gran Corte de las Islas Caimán, el juez Jalil Asif Kc dedicó unos párrafos a explicar como la defensa utilizó IA sin advertir las alucinaciones que incorporó en su escrito.

Así, se puede leer que en una de sus presentaciones la demandada por derecho propio incluyó un texto con “varios errores o malentendidos aparentes”, entre los que destacó que repetidamente se refería a la supuesta orden GCR 0.59 que no existía, así como varios casos análogos que en realidad no ocurrieron.

El tribunal le solicitó a la parte que explique si recurrió a ChatGPT u otra herramienta de inteligencia artificial generativa y que medidas tomó para controlar la información que tal programa pudiera brindarle, pero en su defensa la mujer alegó que no conocía el programa y no tenía dinero para pagar un abogado y que en lugar de ello recurrió a una estudiante de derecho a la que le explicó su caso, y este le habría brindado la respuesta, alegando que posiblemente ella usó la IA por ser una persona joven. 

 

El tribunal le solicitó a la parte que explique si recurrió a ChatGPT u otra herramienta de inteligencia artificial generativa y que medidas tomó para controlar la información que tal programa pudiera brindarle, pero en su defensa la mujer alegó que no conocía el programa y no tenía dinero para pagar un abogado y que en lugar de ello recurrió a una estudiante de derecho a la que le explicó su caso, y este le habría brindado la respuesta, alegando que ella posiblemente usó la IA por ser una persona joven. 

 

Seguidamente, agregó que no conocía a la estudiante a la que solo se había cruzado en la biblioteca y que la joven había generado el texto en la computadora, pero no sabía si era a través de una inteligencia artificial o no, pero al parecerle correcto lo que decía lo incorporó a su defensa.

El magistrado cuestionó que no se haya verificado la veracidad de la información, que claramente no era correcta y destacó el potencial problema que podía causar la IA, recordando varios casos conocidos a nivel internacional.

En tal sentido, remarcó que no estaba mal utilizar la herramienta, pero “es vital que cualquier que utilice una herramienta de IA, verifique que el material generado es correcto y que no contiene alucinaciones”, por lo cual los usuarios de estas herramientas debían asumir responsabilidad personal de la exactitud del material producido y estar preparados para afrontar las consecuencias de sus actos, incluso la posibilidad de una condena en costas.

Es que no tomar esas precauciones daba lugar a varios perjuicios, como “hacer perder el tiempo a la parte contraria y al tribunal; malgastar fondos públicos y hacer que la parte contraria incurra en gastos innecesarios; retrasar la resolución de otros asuntos; no presentar otras líneas argumentales correctas; empañar la reputación de los jueces a los que se atribuyen sentencias inexistentes; y afectar a la reputación de los tribunales y de la profesión jurídica en general”.

En el caso concreto la verificación de los casos y normas citadas incorrectamente, así como la comunicación mantenida con la parte para entender lo sucedido hizo perder tiempo al tribunal y retrasó la sentencia en al menos dos meses, así como otros casos a donde el juzgado podía haber dedicado su tiempo.

Otros casos: 

En Estados Unidos, si bien ya han existido casos de este tipo en el pasado, un nuevo caso se presentó el mes pasado cuando la Corte del Distrito de Wyoming decidió si los abogados de un caso contra el supermercado Walmart debían ser sancionados o no por mal uso de la inteligencia artificial, donde incorporaron 9 supuestos fallos jurisprudenciales que sostenían su argumento y solo uno de ellos era real.

En este supuesto, el tribunal ordenó a los tres abogados que intervenían por esa parte en el caso que tenían hasta el 13 de febrero de 2025 para presentar las copias de los fallos citados o su defensa de porque no deberían ser sancionados por citar jurisprudencia falsa.

 

El tribunal ordenó a los tres abogados que intervenían por esa parte en el caso que tenían hasta el 13 de febrero de 2025 para presentar las copias de los fallos citados o su defensa de porque no deberían ser sancionados por citar jurisprudencia falsa.

 

Por su parte en Brasil, donde también existen antecedentes con este tipo de problemas de mal uso de la IA, la 5° Cámara Criminal de Santa Catarina, explicó que se había presentado un habeas corpus para que se revoquen varias medidas tomadas en un caso de violencia doméstica.

 

En Brasil… se había presentado un habeas corpus para que se revoquen varias medidas tomadas en un caso de violencia doméstica…Aparentemente había sido creado por inteligencia artificial, citando jurisprudencia alucinada que entendieron como un acto de mala fé, una falta de respeto al tribunal al que buscaban inducir al error, por lo que decidieron advertir al abogado interviniente

 

El escrito habría sido creado por inteligencia artificial, citando jurisprudencia inexistente, lo que para el tribunal fue un acto de mala fé y una falta de respeto que buscaba inducir al error, por lo que decidió advertir al abogado interviniente y se rechazó la solicitud porque las medidas cautelares tomadas en el caso de violencia eran necesarias y provisorias.

También existieron experiencias en países como Colombia, Australia o España, donde la IA alucinó y los letrados. lamentablemente. no controlaron los textos antes de hacer sus presentaciones.



Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.


VOLVER A LA TAPA
Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486