Una comisión dentro del Parlamento Europeo aprobó un texto con modificaciones al proyecto de ley de regulación de la inteligencia artificial. Se espera que el mes que viene defina su posición y entre el Parlamento, la Comisión y Consejo de la Union definan el texto definitivo que sería la primera ley en el mundo en regular la materia.
La Comisión de Mercado Interior y la de Libertades Civiles del Parlamento Europeo aprobaron este jueves un proyecto de mandato de negociación sobre la primera ley de regulación de la inteligencia artificial en el mundo.
Con 84 votos a favor, 7 en contra y 12 abstenciones, el parlamento avanza con una serie de modificaciones a la propuesta de la Comisión Europea que se había presentado en abril de 2021 a lo que se sumó la posición del Consejo de la Unión Europea en diciembre de 2022, por lo que estas nuevas modificaciones llegan luego del auge post ChatGPT, y se espera que en junio de este año el Parlamento finalice su posición para que las tres instituciones acuerden el texto definitivo para el Reglamento en la materia.
Si bien la propuesta original contaba con 120 hojas de contenido, el proyecto aprobado en tiempo record esta semana cuenta con 144 hojas donde se introducen modificaciones con perspectiva de resguardar los derechos humanos, impulsar el desarrollo de esta tecnología pero respetando las normas, la ética y los derechos.
Se pretende lograr que los sistemas de inteligencia artificial puedan tener supervisión humana, sean seguros, transparente, trazables, no discriminatorios y respeten el medio ambiente, a la vez que se intenta lograr una definición de la IA que sea tecnológicamente neutra para perdurar en el tiempo ante los avances de la tecnología.
En el proyecto se destaca la prohibición de los sistemas de inteligencia artificial que utilicen técnicas subliminales que trasciendan la conciencia de una persona para alterar su comportamiento, o se aproveche de las vulnerabilidades de un grupo especifico de personas para alterar su comportamiento, también aquellas IA que evaluen y clasifiquen a las personas en periodos de tiempo por su conducta social (Scoring social).
En el proyecto se destaca la prohibición de los sistemas de inteligencia artificial que utilicen técnicas subliminales que trasciendan la conciencia de una persona para alterar su comportamiento, o se aproveche de las vulnerabilidades de un grupo especifico de personas para alterar su comportamiento, también aquellas IA que evaluen y clasifiquen a las personas en periodos de tiempo por su conducta social (Scoring social).
Nuevas prohibiciones ... la identificación biométrica remota "en tiempo real" en espacios de acceso público; la identificación biométrica remota "a posteriori"... la categorización biométrica... los sistemas policiales predictivos... los sistemas de reconocimiento de emociones en determinados supuestos y la extracción indiscriminada de datos biométricos de redes sociales o grabaciones de CCTV para crear bases de datos de reconocimiento facial
Por otro lado se clasifican las IA según el nivel de riesgo y establecen obligaciones para proveedores y usuarios en virtud de ese riesgo, que con el nuevo documento amplía la clasificación de áreas de alto riesgo incluyendo daños a la salud, la seguridad, los derechos fundamentales, el medio ambiente, las campañas políticas y los sistemas de recomendación utilizados por redes sociales según la ley de servicios digitales.
Por otro lado se introducen nuevas prohibiciones de usos intrusivos y discriminatorios de sistemas de IA como la identificación biométrica remota "en tiempo real" en espacios de acceso público; la identificación biométrica remota "a posteriori" (salvo que autorice un juez en supuestos especiales), la categorización biométrica por datos sensibles (raza, sexo, estatus, religión, política, etc), los sistemas policiales predictivos (según perfiles, localización o antecedentes), los sistemas de reconocimiento de emociones en determinados supuestos y la extracción indiscriminada de datos biométricos de redes sociales o grabaciones de CCTV para crear bases de datos de reconocimiento facial en violación de los derechos humanos y del derecho a la intimidad.
Los modelos de base generativa como GPT cumplirán requisitos adicionales de transparencia como identificar cuando un contenido fue generado por la IA, evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para su entrenamiento.
Los ciudadanos podrán presentar quejas sobre un sistema de IA de alto riesgo y recibir explicaciones claras y significativas sobre el papel de la IA en el procedimiento de toma de decisiones, los principales parámetros de la decisión adoptada y los datos de entrada relacionados.
Los sistemas estarán registrados y contarán con la supervisión de una oficina especializada.