La Cátedra Pérez-Llorca/IE analiza las responsabilidades de las personas detrás de la IA
Pérez-Llorca e IE Law School han organizado una nueva jornada de su Cátedra de Derecho Mercantil, en la que han analizado el impacto en el sector asegurador de la Inteligencia Artificial, así como los nuevos retos legales y las novedades regulatorias.
En este sentido, Joaquín Ruiz Echauri, socio de Seguros y Reaseguros de Pérez-Llorca, abordó el impacto de la regulación en materia de Inteligencia Artificial. En su intervención, destacó el Libro Blanco de la Comisión Europea sobre IA y la propuesta de Directiva relativa a la Adaptación de las Normas de Responsabilidad Civil Extracontractual a la Inteligencia Artificial y señaló que la Directiva se aleja de responsabilizar directamente a los sistemas de Inteligencia Artificial, enfocándose en las personas detrás de la tecnología.
Además, introdujo el concepto de "IA de alto riesgo", que incluye sistemas utilizados como componentes de seguridad de un producto o que, como productos en sí mismos, están sujetos a la legislación europea. Como consecuencia, podrían surgir disputas en las que, en caso de daños provocados por dichas IAs, sus creadores tendrían que demostrar que hicieron todo lo posible para evitar el daño, incluso si la "IA de alto riesgo" se utilizó con un fin diferente al original. Esto plantea nuevos desafíos para las aseguradoras, que deberán establecer con claridad los límites y condiciones de las pólizas que cubran estos riesgos. "Es crucial que las compañías se preparen para estos cambios normativos, ya que no sólo impactarán en la gestión de riesgos, sino también en la forma en que se diseñan y se ofrecen los productos aseguradores, lo que implica una transformación profunda en el sector", concluyó Ruiz Echauri.
En el encuentro también intervinieron Raúl Rubio, socio de Propiedad Intelectual, Industrial y Tecnología de Pérez-Llorca, y Araceli Moyá, abogada especializada en Privacidad de Sanitas, quienes abordaron los desafíos regulatorios que enfrenta la industria, subrayando que los intangibles generados en torno a la Inteligencia Artificial plantean retos especialmente complejos en su calificación.
Ambos coincidieron en que, aunque el marco normativo pueda evolucionar, la gobernanza y el cumplimiento deben mantenerse como pilares fundamentales. En este sentido, Moyá recalcó la importancia de comprender la normativa y fomentar una gobernanza sostenible: "Aunque la IA no es nueva, su integración con la nueva regulación europea puede ralentizar los procesos internos, aunque no detener la implementación de nuevas soluciones basadas en IA, y no debe suponer un freno a la innovación. El reto será gestionar, sobre todo al principio, la inseguridad jurídica que pueda generarse".
Por su parte, Rubio puso el foco en el componente ético y enfatizó en la necesidad de establecer comités éticos para promover la transparencia ante los distintos escenarios y no limitarse a los casos de usos marcados por la normativa. "El mayor riesgo de las organizaciones en los próximos años va a ser reputacional. Puede suceder que las empresas lleven a cabo unas prácticas que no estén prohibidas, pero que sean reprochables por parte del mercado", abogó Rubio.
Todos los expertos que se dieron cita en la jornada, han coincidido en que el factor humano resulta fundamental y en que las buenas prácticas no debe ser una responsabilidad que recaiga exclusivamente en los departamentos de control.
Si quiere recibir diariamente y GRATIS noticias como esta, pinche aquí.