El mal uso de la inteligencia artificial por parte de los abogados se esta saliendo de control y los tribunales empiezan a tomar medidas. Es que cada vez aparecen con mayor frecuencia los casos reportados donde letrados utilizan erróneamente la IA, lo que afecta al proceso y ahora se extiende incluso a las partes.
Este 2025 ya nos ha brindado varios casos que trascendieron en la materia, uno muy resonante ocurrió en las Islas Caimán, donde una mujer litigaba sobre la venta de una propiedad en las islas, y en la resolución de la división civil de la Gran Corte de las Islas Caimán, el juez Jalil Asif Kc dedicó unos párrafos a explicar como la defensa utilizó IA sin advertir las alucinaciones que incorporó en su escrito.
Así, se puede leer que en una de sus presentaciones la demandada por derecho propio incluyó un texto con “varios errores o malentendidos aparentes”, entre los que destacó que repetidamente se refería a la supuesta orden GCR 0.59 que no existía, así como varios casos análogos que en realidad no ocurrieron.
El tribunal le solicitó a la parte que explique si recurrió a ChatGPT u otra herramienta de inteligencia artificial generativa y que medidas tomó para controlar la información que tal programa pudiera brindarle, pero en su defensa la mujer alegó que no conocía el programa y no tenía dinero para pagar un abogado y que en lugar de ello recurrió a una estudiante de derecho a la que le explicó su caso, y este le habría brindado la respuesta, alegando que posiblemente ella usó la IA por ser una persona joven.
El tribunal le solicitó a la parte que explique si recurrió a ChatGPT u otra herramienta de inteligencia artificial generativa y que medidas tomó para controlar la información que tal programa pudiera brindarle, pero en su defensa la mujer alegó que no conocía el programa y no tenía dinero para pagar un abogado y que en lugar de ello recurrió a una estudiante de derecho a la que le explicó su caso, y este le habría brindado la respuesta, alegando que ella posiblemente usó la IA por ser una persona joven.
Seguidamente, agregó que no conocía a la estudiante a la que solo se había cruzado en la biblioteca y que la joven había generado el texto en la computadora, pero no sabía si era a través de una inteligencia artificial o no, pero al parecerle correcto lo que decía lo incorporó a su defensa.
El magistrado cuestionó que no se haya verificado la veracidad de la información, que claramente no era correcta y destacó el potencial problema que podía causar la IA, recordando varios casos conocidos a nivel internacional.
En tal sentido, remarcó que no estaba mal utilizar la herramienta, pero “es vital que cualquier que utilice una herramienta de IA, verifique que el material generado es correcto y que no contiene alucinaciones”, por lo cual los usuarios de estas herramientas debían asumir responsabilidad personal de la exactitud del material producido y estar preparados para afrontar las consecuencias de sus actos, incluso la posibilidad de una condena en costas.
Es que no tomar esas precauciones daba lugar a varios perjuicios, como “hacer perder el tiempo a la parte contraria y al tribunal; malgastar fondos públicos y hacer que la parte contraria incurra en gastos innecesarios; retrasar la resolución de otros asuntos; no presentar otras líneas argumentales correctas; empañar la reputación de los jueces a los que se atribuyen sentencias inexistentes; y afectar a la reputación de los tribunales y de la profesión jurídica en general”.
En el caso concreto la verificación de los casos y normas citadas incorrectamente, así como la comunicación mantenida con la parte para entender lo sucedido hizo perder tiempo al tribunal y retrasó la sentencia en al menos dos meses, así como otros casos a donde el juzgado podía haber dedicado su tiempo.
Otros casos:
En Estados Unidos, si bien ya han existido casos de este tipo en el pasado, un nuevo caso se presentó el mes pasado cuando la Corte del Distrito de Wyoming decidió si los abogados de un caso contra el supermercado Walmart debían ser sancionados o no por mal uso de la inteligencia artificial, donde incorporaron 9 supuestos fallos jurisprudenciales que sostenían su argumento y solo uno de ellos era real.
En este supuesto, el tribunal ordenó a los tres abogados que intervenían por esa parte en el caso que tenían hasta el 13 de febrero de 2025 para presentar las copias de los fallos citados o su defensa de porque no deberían ser sancionados por citar jurisprudencia falsa.
El tribunal ordenó a los tres abogados que intervenían por esa parte en el caso que tenían hasta el 13 de febrero de 2025 para presentar las copias de los fallos citados o su defensa de porque no deberían ser sancionados por citar jurisprudencia falsa.
Por su parte en Brasil, donde también existen antecedentes con este tipo de problemas de mal uso de la IA, la 5° Cámara Criminal de Santa Catarina, explicó que se había presentado un habeas corpus para que se revoquen varias medidas tomadas en un caso de violencia doméstica.
En Brasil… se había presentado un habeas corpus para que se revoquen varias medidas tomadas en un caso de violencia doméstica…Aparentemente había sido creado por inteligencia artificial, citando jurisprudencia alucinada que entendieron como un acto de mala fé, una falta de respeto al tribunal al que buscaban inducir al error, por lo que decidieron advertir al abogado interviniente
El escrito habría sido creado por inteligencia artificial, citando jurisprudencia inexistente, lo que para el tribunal fue un acto de mala fé y una falta de respeto que buscaba inducir al error, por lo que decidió advertir al abogado interviniente y se rechazó la solicitud porque las medidas cautelares tomadas en el caso de violencia eran necesarias y provisorias.
También existieron experiencias en países como Colombia, Australia o España, donde la IA alucinó y los letrados. lamentablemente. no controlaron los textos antes de hacer sus presentaciones.