El Consejo Superior de la Judicatura de Colombia publicó el Acuerdo PCSJA24-12243 en el cual se adoptaron lineamientos para el uso de la inteligencia artificial en la rama judicial.
El acuerdo tiene por objeto adoptar lineamientos para que el uso de esta tecnología en ese ámbito, que sirvan para orientar a los auxiliares de justicia para “maximizar los beneficios y potencialidades, mientras se mitigan y gestionan los riesgos potenciales”. Además, incluye una serie de definiciones siguiendo a la UNESCO, a OCDE y a la CEPEJ.
Del articulado se destaca que incluye la primacía de los derechos fundamentales frente al uso de la IA, el comportamiento ético y razonable, adecuado a los mandatos constitucionales, legales y jurisprudenciales, así como de las buenas prácticas y estándares colectivos y se prevé la promoción de un esquema de gobernanza que cuente con participación de las distintas dependencias y jurisdicciones y grupos de interés.
La IA no podrá sustituir la racionalidad humana, siendo los funcionarios y empleados responsables por el uso, gestión, actuaciones y decisiones que se adopten utilizando esos sistemas
Uno de los puntos clave es que la IA no podrá sustituir la racionalidad humana, siendo los funcionarios y empleados responsables por el uso, gestión, actuaciones y decisiones que se adopten utilizando esos sistemas, aclarándose que “los sistemas de IA no deben suplantar, en ningún caso, las actividades de motivación de las providencias y decisiones, valoración de los hechos, análisis de las pruebas, aplicación normativa, interpretación o toma de decisión”.
Se agrega que “los funcionarios y empleados de la rama judicial son responsables de realizar un estricto escrutinio sobre las actuaciones y decisiones en las cuales usen herramientas de IA, en particular sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente”.
El Acuerdo también incluye artículos sobre los datos personales y la privacidad, sobre la seguridad de la información, sobre transparencia, entre otros.
Los funcionarios y empleados de la rama judicial son responsables de realizar un estricto escrutinio sobre las actuaciones y decisiones en las cuales usen herramientas de IA, en particular sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente
Además, se incluyen buenas prácticas de uso como, por ejemplo, la redacción, organización de agenda, asistencia en diseño de presentaciones, comparación de datos, traducciones, reorganización de citas, etc.
Algunos usos, subraya el texto, requieren de una revisión detallada de los resultados obtenidos, como por ejemplo cuando se usa para buscar o recopilar información, consultar jurisprudencia, resumir jurisprudencia, efectuar alertas sobre actuaciones, transcribir audiencias, entre otros.
El acuerdo aclara que “para usos diferentes de los contemplados en el artículo anterior, los funcionarios y empleados de la Rama Judicial sólo podrán usar las herramientas de IA generativa, para el cumplimiento de sus funciones, cuando sean determinadas, provistas, avaladas o habilitadas por el Consejo Superior de la Judicatura.” (art. 5) e incluye deberes de los funcionarios y empleados, y también directrices y buenas prácticas para la implementación de proyectos institucionales.