Un nuevo proyecto de ley presentado este año en Estados Unidos busca proteger la imagen y la voz de las personas ante el uso no autorizado mediante inteligencia artificial, conocido como “deepfake”, algo que empieza a ser un problema ante la aparición de “fake news” como ocurrió con Donald Trump, el Papa Francisco o Tylor Swift por nombrar algunos de los que más repercusiones tuvieron en las redes sociales, o incluso casos peores como alertar a la población sobre hechos inexistentes o utilizarlo para cometer ilícitos, un tema que en China ya ha recibido una regulación y se prevé que otros países empiecen a regularlo.
En el caso de Estados Unidos, la iniciativa legislativa bajo el nombre de “No Artificial Intelligence Fake Replicas And Unauthorized Duplications Act of 2024”, conocida como “No AI FRAUD Act”, no cuenta con demasiada extensión pero hay varios puntos a destacar y en ella también se incluyen ejemplos del mal uso de la IA para falsificar hechos como la utilización de un actor en una publicidad falsa de un plan dental o la publicación de una canción inventada en la que supuestamente confluían artistas de renombre y rápidamente fue viralizado.
El proyecto brinda algunas definiciones importantes para regular la materia y establece un derecho de propiedad intelectual de cada individuo sobre su propia voz e imagen, los que pueden ser transferibles y heredables, en total o en parte y que no expiran con la muerte del individuo independientemente de que hayan sido explotados comercialmente en vida o no.
Establece un derecho de propiedad intelectual de cada individuo sobre su propia voz e imagen, los que pueden ser transferibles y heredable
La transferibilidad de esos derechos puede ocurrir mientras esté vivo el individuo y hasta 10 años tras su muerte, momento en que el derecho caduca. A su vez, la validez del uso de esa imagen o voz en una publicidad o trabajo requiere de un acuerdo por escrito con representación letrada y únicamente puede pactarse por mayores de 18 años, salvo que un tribunal lo autorice para un menor de esa edad.
El uso de la imagen o voz de una persona sin su consentimiento da derecho al afectado a reclamar los daños y perjuicios ocasionado ante la distribución pública de esa imágenes o audios falsos, algo que incluso en el proyecto prevé sumas que van desde los 5.000 a los 50.000 dólares según el caso y por publicación, a lo que debe agregarse daños punitivos y costas procesales.
El uso de la imagen o voz de una persona sin su consentimiento da derecho al afectado a reclamar los daños y perjuicios ocasionado ante la distribución pública de esa imágenes o audios falsos
La ley, considerada “de propiedad intelectual”, en caso de aprobarse dará legitimación activa no solo al individuo afectado sino también a toda persona o entidad que tenga asignados los derechos sobre esa imagen o voz que en el caso de cantantes, incluye a los que tengan contrato con el artista para distribuir su música.
Se incluye un artículo en el proyecto que dispone que si se utiliza la libertad de expresión como defensa se deberá evaluar algunos parámetros para poner en balanza esos derechos y los de propiedad intelectual, tomando en cuenta el interés público, con pautas como por ejemplo, si hubo un uso comercial, si el uso afectó el valor de la imagen o voz, y también si el individuo afectado es relevante y necesario para el propósito principal de la obra donde se utiliza su imagen o voz.
Para finalizar se incluyen algunas limitaciones, entre las cuales se destaca que no hay responsabilidad cuando el daño sea “insignificante”, entendido el daño como perjuicios económicos, físicos, riesgos de perjuicios, angustia emocional grave, o probabilidad de que el uso engañe al público o a un juzgado o tribunal. Se incluye el “daño per se” cuando se incluya material de abuso sexual infantil o imágenes íntimas; se agrega el “equilibro de equidades” para evaluar los daños; se dispone de una plazo de prescripción de 4 años desde que se descubrió o debería haberse descubierto con diligencia debida la violación.