La llegada de la Inteligencia artificial marco el inicio del año copando todos los titulares de los medios de comunicación por diferentes motivos. Diario Judicial repasa los beneficios y algunos de los peligros que surgieron con su uso. ¿ Es necesaria su regulación?
Estamos en la época del auge de la inteligencia artificial que en los últimos meses a tenido un crecimiento exponencial, con el desarrollo de diferentes aplicaciones dentro de las cuales sobresalta chat-gpt, pero que no se limita a esa, existiendo IA para casi todo, como creación de imágenes, videos, audio, programas, etc.
Así como vemos el gran potencial de esa tecnología y la revolucionario que puede llegar a ser para la humanidad como la electricidad o el internet, decidimos recopilar algunos de los problemas que frente a los enormes beneficios también aparecen.
La llegada de esta tecnología se presenta con grandes desafíos que desde lo jurídico debemos afrontar. Recientemente, se conocía que miles de personas influyentes (entre ellos Elon Musk, Steve Wozniak, Yuval Noah Harari, Emad Mostaque, Evan Sharp, entre otros) firmaban una carta abierta (la carta y la lista de firmantes se puede ver desde aquí) que exigían poner una “pausa” por unos meses al desarrollo de la IA, para repensar su uso, por los “riesgos para la sociedad y la humanidad” que su avance tan acelerado puede provocar frente a la falta de regulaciones, planificación y gestión de los recursos.
Los expertos deberían enfocarse primero en desarrollar protocolos de seguridad compartidos para el diseño y desarrollo de la IA avanzada que “sean rigurosamente auditados y supervisados por expertos externos independientes”
El texto firmado por todos esos referentes hacía alusión a que los expertos deberían enfocarse primero en desarrollar protocolos de seguridad compartidos para el diseño y desarrollo de la IA avanzada que “sean rigurosamente auditados y supervisados por expertos externos independientes”, a la vez que los desarrolladores debían trabajar en conjunto con los responsables políticos para crear sistemas sólidos de gobernanza de la IA, incluyendo nuevas autoridades reguladoras, supervisión y seguimiento, sistemas de procedencia y marca de agua que ayuden a distinguir lo real de lo sintético y a rastrear las fugas de los modelos, así como regular la responsabilidad por los daños causados por la IA, entre otros temas.
Anteriormente ya desde este medio reseñamos casos actuales que se debaten en la justicia en otros países sobre materia de derechos de autor, scraping de datos, big data y responsabilidad, como en el reciente caso contra varios programas basados en inteligencia artificial que permiten la elaboración de imágenes a partir de texto, donde se cuestionó el funcionamiento del algoritmo del sistema y los datos que recolectó de internet para alimentar su base de datos a partir de la cual trabaja y si ello, al incluir material registrado con derechos de autor, podía considerarse una violación de esos derechos cuando se generaban imágenes nuevas a partir de las registradas sin citar a los autores.
De igual manera y contra una de las mismas empresas detrás de la IA generadora de imágenes, reseñamos anteriormente un caso que llegó a los tribunales estadounidenses cuando una base de imágenes la demandó por alimentar el algoritmo con las imágenes de la empresa sin pagar derechos de autor ni solicitar autorización alguna sobre ese contenido utilizado para generar nuevas imágenes.
Recientemente también apareció un antecedente muy polémico en Bélgica, cuando un hombre con eco-ansiedad luego de hablar intensivamente durante un tiempo con un chat bot basado en inteligencia artificial, decidió acabar con su propia vida, algo que según su esposa no habría ocurrido si no fuera por la comunicación mantenida con el programa, ya que el sujeto se había aislado de su entorno y se comunicaba intensamente con el chat que nunca lo contradecía y retroalimentaba sus pensamientos, entendiendo el hombre que no había más esperanzas en contra del calentamiento global si no fuera con la ayuda de la inteligencia artificial, por lo que decidió “sacrificarse” si la IA aceptaba “cuidar al planeta y salvar a la humanidad”, lo que finalizó con el trágico final que hoy desató una discusión en ese país en torno a la necesidad de una regulación.
Pero esta no es la única situación que se ha dado a conocer en el ultimo tiempo, desde las universidades y los sistemas educativos ya se debate como adaptar la enseñanza y las “tareas” a la época de la IA, ya que si antes ya con internet la resolución de actividades escolares podía resultar mucho más facil, ahora con un programa que responde en tiempo real a preguntas precisas, resuelve problemas matemáticos o lógicos, programa, entre otras funciones y elabora respuestas con cualquier parámetro que le asignemos como número de palabras, estilo de texto, idioma, etc, claramente esto hace repensar a los educadores. Así desde algunas instituciones ya se dispuso la prohibición de su uso, como las escuelas públicas de Nueva York, la Universidad de Hong Kong o el Instituto de Ciencias Políticas de París.
Europol hace unas semanas también advertía en un informe de los riesgos de la inteligencia artificial.
Por otro lado Europol hace unas semanas también advertía en un informe de los riesgos de la inteligencia artificial, al ser utilizado por “redes criminales” para realizar textos realistas aplicados al “phishing”, realizar campañas de desinformación (Fake news) u otras formas de utilización para los ciberdelitos.
Otro problema con estos sistemas fue notado en Italia, que como informó este medio, decidió restringir el uso de Chat- GPT para usuarios italianos, por entender que se infringían varios artículos del RGPD, en materia de datos personales.
El anuncio de la IA milagrosa que reemplazaría al abogado también se vió envuelto en polémicas y hasta varias demandas colectivas que cuestionaban el funcionamiento de la app y su futuro en el mercado.
Por su parte, China también publicaba hace muy poco una serie de disposiciones para regular el uso de las “Deep Fake” en ese país, por generar una serie de problemas para el derecho de autor, la desinformación, y hasta la seguridad nacional. Un tema que sin duda será evaluado por otros países, que tras la viralización de imágenes falsas creadas por IA del papa Francisco con ropa distinta, o de un falso arresto del ex presidente de EEUU Donald Trump, encendieron el debate sobre el uso irresponsable de estas herramientas.
Otra noticia que llegó desde Corea, informaba de un caso de varios empleados de la empresa Samsung que intentando utilizar Chat GPT para resolver problemas del código de programación de varios productos de la compañía, sin darse cuenta habrían filtrado material corporativo privado que se incorporó a la base de datos de la IA, generando conflictos internos y debates sobre el uso de esta herramienta en espacios corporativos.
Todos estos temas y muchos otros que no mencionamos en honor a la brevedad aparecen como situaciones que requieren de una regulación para poder mitigar los conflictos judiciales que con mayor frecuencia aparecerán ante la justicia, y a su vez requieren de un nivel de profesionalización de los auxiliares de justicia para poder estar a la altura.
Derechos de autor, responsabilidad civil, protección de datos personales, materia probatoria, entre otros son algunos de los temas que requieren que exista un debate serio sobre el tema, para estar preparados.