Grupo Aseguranza

inicio
15 de octubre
13:45 2024
Compartir

Ferma orienta a los gestores de riesgos sobre cómo abordar la nueva Ley de IA

Ferma ha emitido una nota con el objetivo de orientar a los gestores de riesgos sobre cómo abordar la nueva Ley de IA de la UE y lo que ésta implica para sus organizaciones.

La Federación recuerda que la Ley de IA de la UE, publicada en julio, se aplicará a los 27 Estados miembros de la UE y se espera que las empresas la cumplan a partir de febrero de 2025. Su objetivo es crear un alto nivel de protección de la salud, la seguridad y los derechos fundamentales contra los posibles efectos nocivos de la IA. El enfoque basado en el riesgo en su esencia clasifica los sistemas de IA desde riesgo bajo o mínimo hasta riesgo inaceptable, y la mayoría de los requisitos regulatorios se aplican a los sistemas de alto riesgo. Según la legislación, los sistemas de alto riesgo deben registrarse en una base de datos de la UE y deben cumplir con obligaciones específicas relacionadas con la formación y gobernanza de datos, la transparencia y los sistemas de gestión de riesgos.

"La Ley de IA es posiblemente una de las regulaciones más importantes introducidas por la UE en los últimos años, dado el impacto potencial de la IA en todos los aspectos de nuestras vidas", dice Philippe Cotelle, miembro de la junta directiva de Ferma y presidente del Comité Digital. "No sólo impone a los gestores de riesgos la responsabilidad clara de mejorar su juego en materia de IA, sino que también aborda otra pieza del rompecabezas: cómo todo esto impacta en temas como la responsabilidad y la innovación".

Ferma aconseja a los gestores de riesgos desarrollar una estrategia de IA en un marco de gobernanza adecuado, que se pueda demostrar mediante un documento de política y la implementación de procesos. También sugiere que se implante la tecnología adecuada  y se realice inversión en formación continua de empleados y socios, así como dotación de documentación y orientación a los clientes. En tercer lugar, aconseja que la gobernanza y la tecnología estén diseñadas de manera que anticipen los requisitos de auditoría; y se recomienda obtener una certificación formal, aunque la ley no lo exige explícitamente.

En resumen, Ferma aconseja a los gestores de riesgos que sigan un estándar ético reconocido internacionalmente, definan claramente el alcance de la política, las funciones y responsabilidades, y consideren el alcance del entorno en el que opera el sistema de IA de su organización e insta a las empresas a invertir en la implementación de tecnología segura, así como en capacitación.

Ferma alienta a los administradores de riesgos a considerar la creación de un conjunto interno de puntos de referencia para medir el rendimiento del sistema de IA y garantizar que los usuarios estén capacitados para mitigar el riesgo de uso indebido, resultados poco éticos, posibles sesgos, inexactitud y violaciones de datos y seguridad. Todos los usos del sistema, añade, deben alinearse con la política de IA.

IA silenciosa

La nota recomienda además a los gestores de riesgos que consideren analizar la posible "IA silenciosa", es decir, las exposiciones desconocidas o no cuantificadas a la IA que tienen el potencial de afectar a algunas pólizas de seguros actualmente. De cara al futuro, propone que los gestores de riesgos intenten evaluar su necesidad de un nuevo tipo de producto relacionado con la forma en que su empresa utiliza la IA, en línea con el apetito por el riesgo y las exposiciones estimadas.

Si quiere recibir diariamente y GRATIS noticias como esta, pinche aquí.