El Poder Judicial de Colombia utilizó el sistema ChatGPT -basado en Inteligencia Artificial- para motivar una decisión. La novedosa iniciativa generó críticas por el alto nivel de errores que tiene la herramienta tecnológica y los dilemas éticos que se presentan.
Por primera vez, un juez utilizó un sistema basado en Inteligencia Artificial para motivar una decisión. La iniciativa la tomó el Juzgado 1º Laboral del Circuito de Cartagena, Colombia, en el marco de una causa en la que se le reclamaba a una empresa de medicina exonerar el pago de las cuotas de moderadora y copagos en los servicios requeridos para un menor, como también el pago y/o suministro de los transportes necesarios para el desplazamiento de su lugar de residencia al lugar en el cual se practicarán las terapias requeridas.
En primera instancia se autorizó el valor del transporte urbano y la exoneración del pago, ya que la firma no demostró que el accionante contara con recursos económicos para sufragar tales gastos.
Pero en el caso, el juez Juan Manuel Padilla García utilizó ChatGPT, un sistema de chat desarrollado por la empresa OpenAI y que se anuncia como una revolución en el mundo de la tecnología.
El magistrado invocó la Ley 2213 de 2022, que tiene por objeto la incorporación de las TIC en los procesos judiciales, para " extender los argumentos de la decisión adoptada, conforme al uso de inteligencia artificial (IA)"
De este modo, el magistrado realizó varias preguntas, tales como: ¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias?, ¿Las acciones de tutela en estos casos se deben conceder?, ¿Exigir en estos casos la cuota moderadora es una barrera de acceso al servicio de salud? y ¿La jurisprudencia de la corte constitucional ha tomado decisiones favorables en casos similares?.
Su utilización también generó cuestionamientos éticos por la responsabilidad de los operadores judiciales, ya que el Juzgado, por ejemplo, no corroboró ni siquiera si la jurisprudencia citada por el chatbot es real.
Una de las respuestas fue la siguiente: “En caso de que una institución prestadora de servicios de salud no cumpla con la exoneración de cuotas moderadoras para un menor con diagnóstico de autismo, la persona o sus representantes legales pueden presentar una acción de tutela para proteger sus derechos. La tutela es un mecanismo judicial rápido y eficaz para proteger derechos fundamentales que se ven vulnerados. Si se demuestra que el derecho a la salud del menor con autismo está siendo afectado por la exigencia de pagar cuotas moderadoras, es probable que la acción de tutela sea concedida y se ordene a la institución prestadora de servicios de salud cumplir con la exoneración. Sin embargo, cada caso es único y la decisión final depende de los hechos y circunstancias específicas del caso.”
A partir de las respuestas brindadas por el chatbot, el juez resolvió confirmar la decisión. “El propósito de incluir estos textos producto de la IA no es en manera alguna reemplazar la decisión del Juez. Lo que realmente buscamos es optimizar los tiempos empleados en redacción de sentencias, previa corroboración de la información suministrada por IA”, explicó el magistrado.
La iniciativa, sin embargo, causó polémica, pues muchos especialistas advierten que ChatGPT tiende a arrojar resultados incorrectos, imprecisos, y falsos. Es que el sistema puede generar contenidos escritos de forma altamente coherente y muy parecidos a los creados por los humanos, pero muchas respuestas presentan imprecisiones.
Su utilización también generó cuestionamientos éticos por la responsabilidad de los operadores judiciales, ya que el Juzgado, por ejemplo, no corroboró ni siquiera si la jurisprudencia citada por el chatbot es real.