20 de Diciembre de 2024
Edición 7117 ISSN 1667-8486
Próxima Actualización: 23/12/2024
Inteligencia Artificial y Derecho

¿Se puede administrar Justicia a través de cálculos matemáticos?

Existen dos oleadas históricas en relación al uso de tecnologías dotadas de inteligencia artificial a nivel social. La primera, coincidió con su surgimiento como área, después de la segunda posguerra; la segunda, la que vivimos en la actualidad. La pretensión de uso de tecnologías de IA en el ámbito del Derecho estuvo presente en ambas, con resultados similares hasta el momento.

(pingpongchaphoto| vecteezy.com)
Por:
Gustavo
Saín
Por:
Gustavo
Saín

El desarrollo de la informática moderna puede rastrearse en el período de entreguerras, donde las potencias militares de la época destinaban fondos públicos al desarrollo de un complejo militar-industrial con el objetivo de poner a las computadoras al servicio de la defensa nacional. Bajo la consideración como maquina universal capaz de resolver cualquier problema en forma sistemática y precisa, el desarrollo de las grandes computadoras tenía como objetivo el desciframiento de los mensajes del enemigo, el uso de la artillería antiaérea mediante cálculos balísticos y el desarrollo de investigaciones nucleares, entre otras funciones bélicas. Fue recién durante la segunda posguerra que las computadoras empiezan a ser vistas como algo más que una simple maquina capaz de realizar cálculos matemáticos. 

En 1948, el matemático estadounidense Norbert Wiener publica el libro “Cibernética o control y comunicación en animales y maquinas”, un hito en la consideración de las computadoras como cerebros humanos. La Cibernética como ciencia debe entenderse como un esfuerzo de Wiener por asignarle un rol central las maquinas en el proceso de comunicación humana. El lanzamiento de dos bombas atómicas por parte de Estados Unidos sobre Hiroshima y Nagasaki en Japón, no sólo marcó la victoria de los Aliados por sobre las potencias del Eje durante la Segunda Guerra Mundial, sino que también motivó un gran cuestionamiento por parte de la comunidad científica al progreso de la ciencia -comandada por humanos-. a partir del Proyecto Manhattan y las investigaciones científicas en torno al desarrollo de la energía nuclear. La posibilidad certera de una autodestrucción de la civilización humana explica esta nueva fe en las maquinas como ejes centrales para la comunicación entre las personas.

Un año después de la publicación del libro de Wiener, se comienza a pensar como el uso de las computadoras puede contribuir al ámbito jurídico. Estudios coinciden en señalar el surgimiento de la llamada “Informática Jurídica” en 1949 con el artículo "Jurimetría, el próximo paso" del abogado estadounidense Lee Loevinger, que versaba sobre el uso de computadoras en el derecho mediante la aplicación de datos cuantitativos. Con el objetivo último de que los jueces pudiesen anticipar fallos mediante el uso de computadoras, la Informática Jurídica refiere a la aplicación de recursos informáticos para el tratamiento de la información legal. La misma es considerada una disciplina dentro de las ciencias de la información, no del Derecho siendo su objeto de estudio es la utilización de recursos informáticos para la mejora de los procesos jurídicos; a saber, el análisis, la investigación y la gestión. 

Con el correr de los años, la imposibilidad de la Jurimetría de aplicar modelos lógicos a la normativa en base a criterios definidos de anticipar sentencias judiciales, llevó al filósofo italiano Mario Losano a utilizar el término “Iuscibernética”para abandonar el modelo jurimétrico y así aplicar los principios propios del derecho en el uso de la computación. Algunas de las aplicaciones de esta área eran el seguimiento de casos y expedientes judiciales, el control de archivos de clientes, avisos y notificaciones formales, agenda de tareas, cálculo de honorarios profesionales, confección automatizada de documentos y formularios, entre otros. Posteriormente denominada como “Derecho Informático” -también “Derecho de alta tecnología”- consta de los principios y normas que regulan los efectos jurídicos que se derivan del uso de las tecnologías de información y la comunicación digitales en la vida social y sus implicaciones económicas, culturales y políticas. 

El 31 de agosto de 1955, el matemático estadounidense John McCarthy presenta ante las autoridades de la Universidad de Harvard “Una propuesta para un proyecto de investigación sobre Inteligencia Artificial” donde propone la realización de un trabajo integrado por 10 investigadores durante el período de 60 dias a realizarse en el verano de 1956 en el Dartmouth College de Hanover, New Hampshire. El estudio parte de la base de que cada aspecto del aprendizaje o cualquier característica de la inteligencia puede describirse con precisión que se puede construir una máquina para simularlo. El proyecto solicitaba apoyo financiero a la Fundación Rockefeller. Tras su aprobación y realización, en 1958 McCarthy crea el laboratorio de Inteligencia Artificial en el Instituto de Tecnología de Massachussetts -MIT, por sus siglas en inglés- definiéndola como “la ciencia y la ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes”. Es así como la IA se constituye como área de la informática que tiene como objetivo crear maquinas que funcionan y reaccionan como humanos.

Tras el entusiasmo inicial del desarrollo de esta nueva área, y ante la ausencia de avances concretos, se comienza a limitar el financiamiento en investigación y desarrollo (I+D) por parte de los sectores públicos y privados en los Estados Unidos. Las promesas por parte de investigadores influyentes de la época como el politólogo Herbert Simón, quien anunciaba durante la década en cuestión que “en 20 años las maquinas serán capaces de realizar el trabajo de cualquier hombre” o el del científico cognitivo Marvin Minsky, que auguraba que “el problema de crear inteligencia artificial estará sustancialmente solucionado en esta generación”, se contrastaban con resultados tangiblesEl desfinanciamiento gubernamental de los proyectos y la falta de auspicio de empresas interesadas en capitalizar los descubrimientos en el área dan lugar a los que se denominó el “invierno de la inteligencia artificial”. 

No resulta paradójico que después de otro hecho excepcional en la historia de la humanidad –la Pandemia del COVID-19- que arroja como resultado millones de pérdidas humanas al igual que la Segunda Guerra Mundial, resulte la segunda oleada histórica de la inteligencia artificial. Sin una revolución informática que produzca un salto cualitativo en el funcionamiento de las máquinas como podría haber sido la computación cuántica, por ejemplo, este nuevo auge es producto de la evolución temporal de la capacidad técnica de los dispositivos de procesar una mayor cantidad de datos a partir de mejores procesadores y una mayor capacidad de almacenamiento y memoria en comparación con la informática de posguerra, lo que arroja como resultado la consecuente posibilidad de entrecruzar e interrelacionar grandes cantidades o volúmenes de información a partir del desarrollo de la big data.

Los algoritmos pueden analizar grandes cantidades de datos históricos para predecir resultados legales, como el resultado de un caso judicial o la probabilidad de éxito de una estrategia legal. También puede automatizar y mejorar tareas jurídicas como la revisión de documentos, el análisis de contratos, la investigación de casos y la diligencia debida. La antigua pretensión de la jurimetría de anticipar sentencias judiciales también es reeditada como viejo anhelo en el nuevo milenio. 

En cuanto a la definición de inteligencia artificial, no ha variado mucho en comparación con el surgimiento como área durante la segunda posguerra. Para la Unión Europea representa “el uso de la tecnología digital para crear sistemas que normalmente se consideran que requieren inteligencia humana”. En líneas generales sigue siendo un término general aplicable a la idea que una maquina es capaz de “aprender” y tomar decisiones de forma independiente en función de la información proporcionada y su entorno, sin supervisión humana. Pero a diferencia de la primera oleada, el sub-campo de la IA que ha mostrado mayores avances en la actualidad es el Aprendizaje Automático o Machine Learning, específicamente el Aprendizaje Profundo (Deep Learning) que brinda a las computadoras la capacidad de aprendizaje en base a la predicción de respuestas en base etiquetas de información. El concepto en boga es el de redes neuronales en tanto modelos artificiales que intentan emular el funcionamiento del cerebro humano. 

A partir de esta nueva oleada, el Derecho como esfera de actividad vuelve a mostrar su interés por el uso de las tecnologías de IA. En la actualidad es utilizada para el análisis predictivo, la automatización de determinadas tareas y la asistencia a los abogados en trabajos complejos, entre otras funcionesPor ejemplo, los algoritmos pueden analizar grandes cantidades de datos históricos para predecir resultados legales, como el resultado de un caso judicial o la probabilidad de éxito de una estrategia legal. También puede automatizar y mejorar tareas jurídicas como la revisión de documentos, el análisis de contratos, la investigación de casos y la diligencia debida. La antigua pretensión de la jurimetría de anticipar sentencias judiciales también es reeditada como viejo anhelo en el nuevo milenio. 

En 2016 en el caso “Wisconsin State vs Loomis” se comprobó la existencia de un sesgo basado en el origen racial de las personas mediante el uso de un programa de inteligencia artificial. Compas, un acrónimo que en español puede traducirse como Administración de Perfiles Criminales para Sanciones Alternativas del Sistema de Prisiones de los Estados Unidos es un algoritmo predictivo adoptado por la Administración de Justicia de ese país para determinar las posibilidades de un individuo a cometer un crimen, su nivel de culpabilidad o el riesgo de reincidencia, entre otros factores. El algoritmo se nutría de datos provenientes de un cuestionario a la cual se sometían las personas arrestadas por la policía con preguntas tales como sus antecedentes criminales, si algún miembro de su familia había cometido un crimen o había sido arrestado, si vive en un barrio peligroso o tiene amigos que fueran parte de una pandilla, además del historial laboral y académico.

Tras el caso Loomis se comprobó que Compas, la mayoría de las veces, daba como resultado un porcentaje más elevado de riesgo de criminalidad en las personas afroamericanas. Si bien sabemos que un algoritmo es un conjunto de instrucciones o reglas definidas previamente, ordenadas secuencialmente y finitas programado por el hombre, las etiquetas que predicen comportamientos o respuestas también lo son, para lo cual, si el hombre discrimina ¿porque no debería hacerlo verse reflejado en un programa de computadora?. Dejando de lado lo técnico, si una de las variables de análisis del algoritmo de Compass es la población carcelaria de los Estados Unidos, la mayoría de los reclusos pertenecen a esa etnia, para lo cual el programa puede inferir que si la mayoría de los condenados son afroamericanos, las personas de esa comunidad tienen mayor probabilidad de ser culpables de un delito, ya que el software no entiende de los trasfondos de funcionamiento de los sistemas de administración de justicia.

Otro uso actual de la inteligencia artificial en el ámbito del Derecho tiene que ver con que muchos abogados defensores, fiscales o jueces utilizan los chatbots para la fundamentar sus actuaciones, mediante la cita de fallos o jurisprudencia. En 2023 el caso ‘‘Roberto Mata vs. Avianca Airlines’’, un abogado de la firma de Nueva York ‘‘Levidow, Levidow & Oberman’’, fue contratado por Robert Mata para presentar una demanda por lesiones contra la línea aérea. En su demanda, el letrado utilizó el ChatGPT, el chatbot de la empresa OpenAI que se encuentra en línea desde noviembre de 2022 para redactar los argumentos contra la compañía aérea. Los resultados arrojados por ChatGPT fue jurisprudencia inventada por el algoritmo, entre las que incluía: ‘’Varghese vs. China South Airlines, Martinez vs. Delta Airlines, Shaboon vs. EgyptAir, Petersen vs. Iran Air, Miller vs. United Airlines, and Estate of Durden vs. KLM Royal Dutch Airlines’’. En la jerga del campo de la inteligencia artificial esto de denomina “alucinación”. Una alucinación es la información arrojada por un sistema de IA que, aunque este escrita de manera coherente, presenta datos incorrectos, sesgados o directamente, falsos.

El abogado, que si bien explicó que jamás había utilizado previamente el ChatGPT y que no creyó que el mismo pudiese dar información falsa, citó en su demanda jurisprudencia que en realidad no existía. El desenlace de este caso resultó en un acontecimiento sin precedentes en el sistema legal de Estados Unidos, donde el letrado fue sancionado con una multa de 5.000 dólares por presentar investigaciones legales ficticias respaldadas por ChatGPT. A partir de este caso, el Tribunal del Distrito Norte de Texas publicó una orden permanente para los abogados que litiguen en su jurisdicción donde certifiquen mediante un formulario obligatorio denominado ‘‘Mandatory Certification Regarding Generative Artificial Intelligence’’ que no han utilizado inteligencia artificial en el proceso de redacción de los documentos y escritos legales que sean presentados ante la justicia, lo que en los hechos significa, su prohibición de uso. 

Para el filósofo francés Eric Sadin; “lo humano está animado por una pasión perturbadora: engendrar dobles artificiales de sí mismo. Desde la Antigüedad la historia está jalonada de episodios que nos permiten ver a ciertos individuos intentando concebir, bajo distintas formas, criaturas a las que se asigna nuestra misma conformación y que deberían estar dotadas, según el caso, de algunas de nuestras cualidades (…) Dentro de la ambición de lograr la reproducción antropomórfica está siempre la fantasía de hacer surgir una entidad dotada de poderes superiores”. Esta voluntad humana de crear vida artificial se contrasta con los propios miedos que genera su posterior evolución. Anticipada por la literatura y cine de ficción en “2001: Odisea del espacio”, “Terminator” o “Matrix”, la llamada Inteligencia Artificial fuerte o auto sostenible afirma que, en un futuro, las máquinas pueden poseer estados mentales y ser conscientes de sí misma, contar con una experiencia subjetiva propia y ser capaz de sentir emociones. A través de una enorme capacidad de cálculo y adaptación al entorno, con ella habríamos alcanzado la singularidad y produciría cambios impredecibles para el futuro de la humanidad. La cuestión del uso ético de la IA es un tema de debate en la actualidad. Quizá la pregunta inicial no debe centrarse en el rol de las maquinas sino en la voluntad humana de someter la libertad, el encarcelamiento y, en algunos casos, la vida; a una serie de cálculos matemáticos en nombre de la de Justicia.

Gustavo Saín es experto en ciberseguridad y cibercriminalidad. Ex Director Nacional de Ciberseguridad de la República Argentina. Asesor de la Dirección Nacional de Política Criminal del Ministerio de Justicia de la Nación.


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.


VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2024 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486