El Gobierno de España aprobó un anteproyecto de ley para el uso “ético, inclusivo y beneficioso de la inteligencia artificial”, que se apoyará en Reglamento Europeo de IA, que entró en vigor en febrero .
En concreto, la norma buscará prohibir algunos usos de la inteligencia artificial a los fines de garantizar derechos digitales de los usuarios.
Entre algunas de las medidas que agrega se encuentra la obligación de todos los programas de inteligencia artificial generativa de incorporar un etiquetado en los contenidos audiovisuales generados, de manera tal que permita identificar que fue producto de esta tecnología y así terminar con las “deepfakes”, aunque el texto no brinda detalles técnicos de como se llevaría adelante, atento a su dificultad.
Con esta iniciativa se prohibiría la inteligencia artificial que haga uso de identificación biométrica de los ciudadanos en entornos públicos, la que solo se autorizará a las fuerzas de seguridad en casos puntuales.
La obligación de todos programas de inteligencia artificial generativa de incorporar un etiquetado en los contenidos audiovisuales generados, de manera tal que permita identificar que fue producto de esta tecnología y así terminar con las “deepfakes”, aunque el texto no brinda detalles técnicos de como se llevaría adelante, atento a su dificultad..
También se vedan las técnicas subliminales mediante uso de inteligencia artificial, de manera tal que se exploten vulnerabilidades de las personas por su condición.
En caso de aprobarse el anteproyecto, será la Agencia Española de Supervisión de Inteligencia Artificical (AESIA) la autoridad de aplicación que controlará el cumplimiento normativo, y podrá aplicar sanciones pecuniarias de alto valor, como ser en el caso de IAs de alto riesgo, multas que pueden ir hasta el 2% del volumen mundial de negocio de la entidad afectada, y en el caso de IAs prohibidas, hasta el 7% de ese valor o hasta 35 millones de euros.
Entre las obligaciones que se impondrán en caso de aprobarse, aparece la aplicación de sistemas de gestión de riesgos, la conservación de registros, entre otros.
La idea es crear un “Sandbox” o “entorno controlado de pruebas”, en el cual al menos 12 sistemas de IA de alto riesgos participaran durante un año para fomentar la innovación sin inconvenientes.