13 Mar
Inteligencia Artificial IA Act 13 de marzo de 2024

Aprobado hoy el Reglamento europeo de Inteligencia Artificial (AI Act)

La AI Act ya es una realidad. Hoy, 13 de marzo de 2024. El Parlamento ha aprobado hoy miércoles, 13 de marzo de 2023, la denominada «Ley de Inteligencia Artificial» (aunque en realidad no es una Ley sino un Reglamento), que pretende garantizar la seguridad y el respeto de los derechos fundamentales.

El Reglamento, acordado en las negociaciones con los Estados miembros en diciembre de 2023, fue respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones.

Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Se prohíbe expresamente el reconocimiento de emociones en el lugar de trabajo

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Obligaciones para los sistemas de alto riesgo. Entre otros, el empleo

También se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho).

Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones).

Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

Inteligencia artificial y pymes

Se establece expresamente que habrá que poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización

Por: Estela Martín

Linkedin TopVoices España 2020. DirCom & RSC en ...

Buscar
Categorías
Loading

Llámanos