30 de Abril de 2024
Edición 6956 ISSN 1667-8486
Próxima Actualización: 02/05/2024
Nuevos avances en la era post ChatGPT

Regulando la inteligencia artificial

Una comisión dentro del Parlamento Europeo aprobó un texto con modificaciones al proyecto de ley de regulación de la inteligencia artificial. Se espera que el mes que viene defina su posición y entre el Parlamento, la Comisión y Consejo de la Union definan el texto definitivo que sería la primera ley en el mundo en regular la materia. 

Por:
Sebastian G. Onocko
Por:
Sebastian G. Onocko

La Comisión de Mercado Interior y la de Libertades Civiles del Parlamento Europeo aprobaron este jueves un proyecto de mandato de negociación sobre la primera ley de regulación de la inteligencia artificial en el mundo.

Con 84 votos a favor, 7 en contra y 12 abstenciones, el parlamento avanza con una serie de modificaciones a la propuesta de la Comisión Europea que se había presentado en abril de 2021 a lo que se sumó la posición del Consejo de la Unión Europea en diciembre de 2022, por lo que estas nuevas modificaciones llegan luego del auge post ChatGPT, y se espera que en junio de este año el Parlamento finalice su posición para que las tres instituciones acuerden el texto definitivo para el Reglamento en la materia.

Si bien la propuesta original contaba con 120 hojas de contenido, el proyecto aprobado en tiempo record esta semana cuenta con 144 hojas donde se introducen modificaciones con perspectiva de resguardar los derechos humanos, impulsar el desarrollo de esta tecnología pero respetando las normas, la ética y los derechos.

Se pretende lograr que los sistemas de inteligencia artificial puedan tener supervisión humana, sean seguros, transparente, trazables, no discriminatorios y respeten el medio ambiente, a la vez que se intenta lograr una definición de la IA que sea tecnológicamente neutra para perdurar en el tiempo ante los avances de la tecnología.

 

 

En el proyecto se destaca la prohibición de los sistemas de inteligencia artificial que utilicen técnicas subliminales que trasciendan la conciencia de una persona para alterar su comportamiento, o se aproveche de las vulnerabilidades de un grupo especifico de personas para alterar su comportamiento, también aquellas IA que evaluen y clasifiquen a las personas en periodos de tiempo por su conducta social (Scoring social).

 

 

En el proyecto se destaca la prohibición de los sistemas de inteligencia artificial que utilicen técnicas subliminales que trasciendan la conciencia de una persona para alterar su comportamiento, o se aproveche de las vulnerabilidades de un grupo especifico de personas para alterar su comportamiento, también aquellas IA que evaluen y clasifiquen a las personas en periodos de tiempo por su conducta social (Scoring social).

 

 

Nuevas prohibiciones ... la identificación biométrica remota "en tiempo real" en espacios de acceso público; la identificación biométrica remota "a posteriori"... la categorización biométrica... los sistemas policiales predictivos... los sistemas de reconocimiento de emociones en determinados supuestos y la extracción indiscriminada de datos biométricos de redes sociales o grabaciones de CCTV para crear bases de datos de reconocimiento facial 

 

 

Por otro lado se clasifican las IA según el nivel de riesgo y establecen obligaciones para proveedores y usuarios en virtud de ese riesgo, que con el nuevo documento amplía la clasificación de áreas de alto riesgo incluyendo daños a la salud, la seguridad, los derechos fundamentales, el medio ambiente, las campañas políticas y los sistemas de recomendación utilizados por redes sociales según la ley de servicios digitales

Por otro lado se introducen nuevas prohibiciones de usos intrusivos y discriminatorios de sistemas de IA como la identificación biométrica remota "en tiempo real" en espacios de acceso público; la identificación biométrica remota "a posteriori" (salvo que autorice un juez en supuestos especiales), la categorización biométrica por datos sensibles (raza, sexo, estatus, religión, política, etc), los sistemas policiales predictivos (según perfiles, localización o antecedentes), los sistemas de reconocimiento de emociones en determinados supuestos y la extracción indiscriminada de datos biométricos de redes sociales o grabaciones de CCTV para crear bases de datos de reconocimiento facial en violación de los derechos humanos y del derecho a la intimidad.

Los modelos de base generativa como GPT cumplirán requisitos adicionales de transparencia como identificar cuando un contenido fue generado por la IA, evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para su entrenamiento.

Los ciudadanos podrán presentar quejas sobre un sistema de IA de alto riesgo y recibir explicaciones claras y significativas sobre el papel de la IA en el procedimiento de toma de decisiones, los principales parámetros de la decisión adoptada y los datos de entrada relacionados.

Los sistemas estarán registrados y contarán con la supervisión de una oficina especializada.

 

 

 



Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.


VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2024 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486