Un juez utilizó ChatGPT para realizar la sentencia y todo terminó con un extenso fallo - escrito por humanos- de la Corte Constitucional de Colombia. El máximo tribunal analizó el uso de esta herramienta de inteligencia artificial generativa y si esto vulneraba el debido proceso.
El caso en cuestión versó sobre una mujer, cuyo hijo tenía autismo, que demandó a su seguro de salud para que la eximan de pagar copagos por los tratamientos del menor con discapacidad y le abonen los gastos de transporte para realizar las terapias.
La demandada negó que exista discapacidad y que haya una orden médica que justifique el transporte, sin embargo, el juzgado municipal hizo lugar a la acción y admitió las pretensiones.
Ante la apelación de la demandada, el juzgado del circuito confirmó la sentencia porque la recurrente no probó que la actora tenga los recursos para afrontar los copagos que aparecían como una barrera para el acceso a la salud.
En la resolución de segunda instancia, el magistrado advirtió que haría uso de la inteligencia artificial para ampliar los argumentos de su decisión, acompañando un intercambio de preguntas con ChatGPT.
Exhortó “a los jueces de la República para que evalúen el adecuado uso de la herramienta tecnológica ChatGPT y otras análogas o que se desarrollen en el ámbito de la inteligencia artificial IA”.
Concretamente, el magistrado preguntó a la IA si un menor autista estaba exonerado de pagar copagos, si una acción de tutela (como este caso) debía prosperar, si el copago implicaba una barrera para el acceso a la salud y que decía la jurisprudencia al respecto.
El caso se terminó elevando a la Corte Constitucional, donde el tribunal se preguntó si quien emitió la decisión en la sentencia fue el juez o la IA y si realmente estaba motivada o fue producto de respuestas o alucinaciones de esta última.
En su fallo, la Corte confirmó parcialmente la sentencia, y exhortó “a los jueces de la República para que evalúen el adecuado uso de la herramienta tecnológica ChatGPT y otras análogas o que se desarrollen en el ámbito de la inteligencia artificial IA”.
En concreto estableció que los funcionarios y empleados de la Rama Judicial aplicarán una serie de principios clave:
El fallo también hace referencia a la garantía del juez natural y en tal sentido recuerda que la independencia judicial implica que “ningún poder, ya sea estatal o particular, o de cualquier otra índole, como por ejemplo una IA, pueda influir en la consideración del caso”.
También ordenó al Consejo Superior de la Judicatura para que divulgue una guía para el uso de la IA generativa en la Rama Judicial dentro de los 4 meses desde la publicación del fallo.
Como mínimo hay que tener en cuenta alguno puntos expresó la corte, como por ejemplo que “las IA no pueden ser usada para sustituir el razonamiento lógico y humano que le compete realizar a cada juez a efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la decisión, pues ello conllevaría una violación de la garantía del juez natural y al debido proceso probatorio”.
Se autoriza su uso en el ámbito de la “gestión administrativa y documental” o como apoyo a la gestión judicial y a la corrección y sintaxis de textos, sin reemplazar la labor del funcionario.
Se agregó que siembre se debe “identificar a un humano responsable” “a quien se le pueda plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las intervenciones que genera la IA”.
Para ello los jueces deben emplear “la autoregulación ética y los autocontroles al momento de apoyarse en IA para la gestión judicial”.
Este fallo aparece como uno de los primeros a nivel mundial que desarrolla en torno al uso de la inteligencia artificial por parte de los jueces en el marco de los procesos judiciales, y marca un camino a nivel nacional sobre el cual avanzará esta tecnología en entornos judiciales.