Grupo Aseguranza

inicio
02 de agosto
08:53 2024
Compartir

Entra en vigor la Ley Europea de Inteligencia Artificial

El mes de agosto ha comenzado con la entrada en vigor de la Ley Europea de Inteligencia Artificial, la primera normativa global del mundo sobre IA. El objetivo de la Ley es garantizar que la IA desarrollada y utilizada en la UE "sea digna de confianza, con salvaguardias para proteger los derechos fundamentales de las personas". Asimismo, esta normativa pretende establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y creando un entorno favorable a la innovación y la inversión.

Estos son algunos de sus principales aspectos:

- Riesgo mínimo. La mayoría de los sistemas de IA, como los sistemas de recomendación basados en IA y los filtros de spam, entran en esta categoría. Estos sistemas no tienen obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.

- Riesgo específico de transparencia. Los sistemas de IA como los chatbots deben informar claramente a los usuarios de que están interactuando con una máquina. Determinados contenidos generados por IA, incluidas las 'deep fakes', deben etiquetarse como tales y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores tendrán que diseñar los sistemas de forma que los contenidos sintéticos de audio, vídeo, texto e imágenes se marquen en un formato legible por máquina y puedan detectarse como generados artificialmente o manipulados.

- Alto riesgo. Los sistemas de IA identificados como de alto riesgo deberán cumplir requisitos estrictos, incluidos sistemas de mitigación de riesgos, alta calidad de los conjuntos de datos, registro de la actividad, documentación detallada, información clara al usuario, supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Los Sandbox facilitarán la innovación responsable y el desarrollo de sistemas de IA que cumplan las normas. Estos sistemas de IA de alto riesgo incluyen, por ejemplo, los sistemas de IA utilizados para la contratación, o para evaluar si alguien tiene derecho a obtener un préstamo, o para hacer funcionar robots autónomos.

- Riesgo inaceptable. Se prohibirán los sistemas de IA que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como los juguetes que utilizan asistencia por voz fomentando el comportamiento peligroso de los menores, los sistemas que permiten la "puntuación social" por parte de gobiernos o empresas. Además, se prohibirán algunos usos de los sistemas biométricos, como los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas de categorización de personas o de identificación biométrica a distancia en tiempo real con fines policiales en espacios de acceso público (con escasas excepciones).

Para complementar este sistema, la Ley de IA también introduce normas para los llamados modelos de IA de propósito general, que son modelos de IA muy capaces diseñados para realizar una amplia variedad de tareas, como generar texto similar al humano. Los modelos de IA de propósito general se utilizan cada vez más como componentes de las aplicaciones de IA. La Ley de IA garantizará la transparencia a lo largo de la cadena de valor y abordará los posibles riesgos sistémicos de los modelos más capaces.

Autoridades nacionales supervisoras

Ahora, los Estados miembros tienen hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes encargadas de supervisar la aplicación de las normas para los sistemas de IA y llevar a cabo actividades de vigilancia del mercado. La Oficina de Inteligencia Artificial de la Comisión Europea será el principal organismo de aplicación de la Ley de IA a escala de la UE.

Además, 3 órganos consultivos apoyarán la aplicación de la normativa: el Consejo Europeo de Inteligencia Artificial, que garantizará una aplicación uniforme de la Ley de la IA en todos los Estados miembros de la UE y actuará como principal órgano de cooperación entre la Comisión y los Estados miembros; un panel científico de expertos independientes, que ofrecerá asesoramiento técnico y aportaciones sobre la aplicación de la normativa; y un foro consultivo, compuesto por un conjunto diverso de partes interesadas.

Las empresas que no cumplan las normas serán multadas. Las multas podrían ascender hasta el 7% de la facturación anual global por incumplimiento de las aplicaciones de IA prohibidas, hasta el 3% por incumplimiento de otras obligaciones y hasta el 1,5% por suministrar información incorrecta.

La Ley de IA ha entrado en vigor ya aunque la mayoría de las normas no empezarán a aplicarse hasta el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se considere que presentan un riesgo inaceptable se aplicarán ya a los 6 meses, mientras que las normas para los llamados modelos de IA de propósito general se aplicarán a los 12 meses.

Cabe recordar que en diciembre, durante la Presidencia española del Consejo, la UE puso los cimientos de esta normativa tras 36 horas de negociaciones. En marzo, el Parlamento Europeo ya aprobó la Ley.

Si quiere recibir diariamente y GRATIS noticias como esta, pinche aquí.