El mes pasado informábamos desde este medio de un caso que puso sobre la mesa un nuevo posible problema para el ejercicio profesional de los abogados, el uso ciego de la inteligencia artificial sin chequear la información que la misma brinda, a la hora de elaborar escritos o buscar jurisprudencia.
En esa oportunidad supimos que un abogado en EEUU presentó una demanda citando variada jurisprudencia sobre la que sostenía su defensa y que nadie lograba localizar, hasta que se supo que los precedentes habían sido “inventados” por la inteligencia artificial que el letrado utilizó para elaborar su presentación.
Con posterioridad desde el estudio jurídico detrás del error presentaron una declaración jurada al tribunal acompañando capturas de pantalla de la aplicación ChatGPT donde se identificaba que había sido el programa el que brindó como reales aquella jurisprudencia inexistente, alegando en su defensa los letrados que no eran consientes de que ello podía pasar, habiendo confiado en la herramienta como buscador de fallos sin una revisión previa.
Tras ese incidente que desató un debate sobre el uso de la IA en el derecho a nivel internacional, incluso se supo que otro tribunal de ese país en su afán de solucionar este problema comenzó a requerir a los abogados que presenten una declaración jurada en cada proceso donde certifiquen que no usan IA en sus escritos o que realizaron el control posterior de la información que tal herramienta otorgó, asumiendo la responsabilidad por ello.
El juzgado federal que intervino en el caso ordenó sancionar a los dos abogados del estudio jurídico que habían presentado el escrito con jurisprudencia falsa creada por ChatGPT, condenándolos al pago de una multa de 5000 dólares.
Siguiendo con la historia inicial, se supo que recientemente el juzgado federal que intervino en el caso ordenó sancionar a los dos abogados del estudio jurídico que habían presentado el escrito con jurisprudencia falsa creada por ChatGPT, condenándolos al pago de una multa de 5000 dólares.
También les ordenó que notifiquen de esa sanción a su cliente y a cada juez falsamente identificado como autor de los precedentes falsos generados por ChatGPT, por considerar que existió mala fe de parte de los letrados que no reconocieron el error sino hasta después de que el tribunal les ordenó que expliquen porque no debía sancionarlos.
Incumplieron con su obligación de velar por la exactitud de sus escritos… ello implicó una pérdida de tiempo y dinero para la parte contraria que debió denunciar el engaño, perjudicó a su cliente al privarlo de argumentos válidos para su defensa y puso en duda la reputación de jueces y tribunales cuyos nombres aparecían en la jurisprudencia inventada. Y por otro lado también promovía el cinismo sobre la profesión legal y el sistema judicial estadounidense, generando que en el futuro los litigantes puedan cuestionar la autenticidad de las resoluciones judiciales.
Además el juez entendió que incumplieron con su obligación de velar por la exactitud de sus escritos, y que ello implicó una pérdida de tiempo y dinero para la parte contraria que debió denunciar el engaño, perjudicó a su cliente al privarlo de argumentos válidos para su defensa y puso en duda la reputación de jueces y tribunales cuyos nombres aparecían en la jurisprudencia inventada. Y por otro lado también promovía el cinismo sobre la profesión legal y el sistema judicial estadounidense, generando que en el futuro los litigantes puedan cuestionar la autenticidad de las resoluciones judiciales.
La sanción se impuso pese a que el juez reconoció la sinceridad de los sujetos cuando describieron su vergüenza y remordimiento, y por el hecho de que los casos falsos no se presentaron para el beneficio económico de ningún demandado ni hubo intención de presentar algo falso, además de que no tenían historial de infracciones disciplinarias y la posibilidad de que se repitan las acciones cuestionadas era muy baja.