Según trascendió el Consejo Nacional de Justicia (CNJ) de Brasil abriría una investigación contra un juez federal brasileño que utilizó la inteligencia artificial para redactar una sentencia, pero por error se incluyó una supuesta sentencia del Superior Tribunal de Justicia Regional como jurisprudencia en la argumentación, la que resultó ser inexistente.
De esta manera el caso se suma a otros que desde este medio hemos reseñado donde ChatGPT “inventa” contenido, como ocurrió con un abogado de Nueva York que adjuntó una serie de supuestos precedentes que resultaron inexistentes y que derivo inclusive en una sanción para los letrados, y un intento de evitarlo, puesto que como es sabido estos sistemas de inteligencia artificial utilizan sistemas de probabilidad para dar sus respuestas y a veces incurren en “alucinaciones” es decir que brindan respuestas incorrectas con contenido inexistente.
En el caso de referencia, el abogado del caso advirtió la circunstancia al Departamento Regional de Asuntos Internos de la Justicia Federal de la 1° Región, donde se consideró que se trató de un mero error por la sobrecarga de trabajo y se archivó el expediente que ahora vuelve a reflotar.
El Consejo Nacional de Justicia (CNJ) de Brasil abriría una investigación contra un juez federal brasileño que utilizó la inteligencia artificial para redactar una sentencia, pero por error se incluyó una supuesta sentencia del Superior Tribunal de Justicia Regional como jurisprudencia en la argumentación, la que resultó ser inexistente
Por su parte el Tribunal Regional Federal de la 1° Región, con la firma del juez federal Néviton Guedes, Corregidor Regional de la Justicia Federal de la 1ª Región dio a conocer la Circular Coger 33/2023 dirigida a los jueces y funcionarios donde se recuerda que si bien el Consejo Nacional de Justicia en 2020 y bajo la Resolución 332/2020 de 31 artículos permitía a los jueces utilizar inteligencia artificial (IA) para el ejercicio de sus funciones, lo hacía siguiendo una serie de reglas y parámetros entre los que se disponía que debía cumplir con un criterio ético de transparencia, que los datos utilizados en el proceso de aprendizaje automático (machine learning) debían provenir de fuentes seguras preferentemente gubernamentales que puedan ser rastreadas y auditadas y que la autoridad competente siempre tenía que hacer un análisis de la solución brindada por la IA y cuando se la utilice en la redacción de resoluciones judiciales requería de una supervisión del magistrado competente, tarea con la cual también debían cooperar otros funcionarios, pasantes o colaboradores implicados.
Los modelos de inteligencia artificial generativos (LLM) si bien pueden ser una herramienta útil para corregir textos o realizar otras actividades auxiliares de la oficina judicial no fueron concebidos para servir como fuentes fiables de investigación e información, por lo que “corren el riesgo de proporcionar inexactos sobre hechos, lugares y personas y de "alucinar " información poco fiable”, sumado a que también existe un riesgo de que información sensible o confidencial de un caso pueda verse expuesta por ser suministrada al programa
Además la circular disponía que los modelos de inteligencia artificial generativos (LLM) si bien pueden ser una herramienta útil para corregir textos o realizar otras actividades auxiliares de la oficina judicial no fueron concebidos para servir como fuentes fiables de investigación e información, por lo que “corren el riesgo de proporcionar inexactos sobre hechos, lugares y personas y de "alucinar " información poco fiable”, sumado a que también existe un riesgo de que información sensible o confidencial de un caso pueda verse expuesta por ser suministrada al programa.
Por ello y a raíz del caso donde el juez incurrió en la utilización de precedentes inexistentes, recomendaron que no se utilicen herramientas abiertas de IA generativa para buscar jurisprudencia que no hayan sido aprobadas por alguno de los órganos de control del poder judicial, a la vez que establecieron que había que reforzar los deberes de cautela, supervisión y gobernabilidad en la producción y uso de la IA en el poder judicial y advirtieron sobre la responsabilidad del magistrado competente en relación al uso de la IA en los servicios judiciales, ante las ventajas y desventajas que ello trae aparejado.