El Consejo y el Parlamento han llegado a un acuerdo provisional sobre el denominado Reglamento de Inteligencia Artificial (IA), la primera norma mundial que regula esta herramienta. El objetivo principal es establecer un marco jurídico uniforme que, en concordancia con los valores de la Unión Europea (UE) garantice los derechos fundamentales, la salud, la seguridad, la democracia y el Estado de Derecho.
El modelo de regulación propuesto utiliza el riesgo como criterio para diferenciar cuatro tipos de sistemas de IA y sus respectivas obligaciones, distinguiendo entre: sistemas de riesgo mínimo, sistemas de alto riesgo, sistemas de riesgo inadmisible y sistemas de riesgo específico para la transparencia. En el marco de esta clasificación, el nuevo acuerdo incluye algunos cambios a la propuesta que hizo la Comisión.
Alcance del acuerdo político
La gran mayoría de los sistemas de IA tienen un nivel de riesgo mínimo, esto implica que simplemente deben cumplir con obligaciones de transparencia leves y que podrán acogerse a códigos de conducta voluntarios. El nuevo acuerdo, para evitar la clasificación incorrecta de los sistemas, recoge en el Anexo III una lista con algunos de los sistemas de IA considerados de alto riesgo. Para poder comercializarlos será obligatorio hacer una evaluación de impacto en los derechos fundamentales y notificar los resultados a la autoridad nacional competente. Del mismo modo deberán contar con un sistema de gestión de calidad y riesgos que le permita adaptarse a las futuras exigencias legales.
Se ha ampliado la lista de sistemas de IA con riesgo inadmisible, los cuales estarán prohibidos por vulnerar derechos fundamentales. Entre los más importantes está el uso de la identificación biométrica remota por las autoridades policiales en espacios públicos, con determinadas excepciones. Por último, están los sistemas de riesgo específico para la transparencia, que deberán informar al usuario que está interactuando con una máquina y no una persona.
Asimismo, se han añadido disposiciones para la IA de uso general, sistemas que se pueden utilizar con muchos fines diferentes y que se integran posteriormente en sistemas de alto riesgo. También se han acordado normas específicas para los modelos fundacionales, definidos como sistemas capaces de realizar una amplia gama de tareas, como la generación de códigos informáticos. Los modelos fundacionales deben cumplir obligaciones específicas en materia de transparencia. Se ha introducido un régimen más estricto para los modelos fundacionales de gran impacto que pueden difundir riesgos sistémicos. Para su supervisión, el acuerdo crea una oficina de la IA en la Comisión Europea.
Impacto sobre los servicios financieros
El Reglamento de la IA es una norma que afecta a distintos sectores, entre otros, el financiero. Constituye pues, un marco adicional a la regulación financiera prexistente. No sustituye, completa el sistema.
La IA es un instrumento que permite optimizar las operaciones bancarias para hacerlas más eficientes. Trae consigo mejoras en la gestión y evaluación de riesgos, seguimiento de transacciones y la detección de fraudes o actividades inusuales. Del mismo modo permite detectar desviaciones en el cumplimiento normativo y mejorar las tareas de supervisión contra el blanqueo de capitales.
Las entidades financieras también pueden utilizar sistemas de IA que ofrecen y desarrollan productos financieros ajustados al perfil del cliente. Ahora bien, en tanto que estos sistemas de IA suponen la calificación crediticia de las personas, serán considerados, acorde con el reglamento, como sistemas de alto riesgo. Esto implica que las entidades deberán asegurarse de que el sistema utilizado cumple con los requisitos de gobernanza, transparencia, protección de derechos fundamentales y garantía de datos que la norma europea impone para este nivel de riesgo. La misma calificación tienen los sistemas destinados a utilizarse para la evaluación de riegos y la fijación de precios en el sector de los seguros, para los que se deberán cumplir análogas obligaciones.
Si las instituciones financieras desean externalizar los servicios de IA de terceros, además de cumplir con el Reglamento de IA será necesario ajustarse a la normativa de externalización y a la Ley de Resiliencia de las Operaciones Digitales (DORA).
En cualquier caso, la utilización de la IA para mejorar los servicios financieros será un complemento, pero no sustituirá el análisis humano. Los asesores financieros deben contar con competencias profesionales que les permitan revisar, corregir e incluso mejorar la información que los sistemas de IA generen.
IA, próximos pasos
En las próximas semanas se ultimarán los detalles del Reglamento antes de remitirlo para su refrendo al Comité de Representantes Permanentes de los Gobiernos de los Estados miembros de la Unión Europea (Coper). Tras esto, el Parlamento y el Consejo deberán aprobar el texto definitivo antes de su publicación en el Diario Oficial de la Unión Europea (DOUE).