El objetivo del acuerdo provisional alcanzado el 9 de diciembre entre la Presidencia del Consejo y el Parlamento Europeo es regular la inteligencia artificial (IA) para evitar que esta tecnología pueda dañar a la sociedad, que se respeten los derechos de los ciudadanos y -al mismo tiempo- que se impulse la innovación.
Novedades
Entre las novedades que incorpora el acuerdo con respecto a la propuesta inicial presentada en abril de 2021 por la Comisión Europea, destacan:
-La incorporación de normas sobre modelos de IA de uso general de gran impacto que puedan causar un riesgo sistémico en el futuro, así como normas sobre los sistemas de IA de alto riesgo.
-Un sistema revisado de gobernanza con competencias de ejecución a escala de la UE. Las autoridades nacionales competentes de vigilancia del mercado supervisarán la aplicación de las normas a nivel nacional, mientras que la creación de una Oficina Europea de Inteligencia Artificial dentro de la Comisión Europea se encargará de la coordinación a nivel europeo.
-Ampliación de las prohibiciones, con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades policiales en espacios públicos, con salvaguardias.
-Mejor protección de los derechos mediante la obligación de que los implementadores de los sistemas de IA de alto riesgo evalúen su impacto en los derechos fundamentales antes de poner en marcha los sistemas.
Control de riesgos
El enfoque que se utilizará para garantizar la seguridad y los derechos de los ciudadanos estará basado en los riesgos. Por lo tanto, a mayor riesgo, normas más estrictas. Hay que apuntar que la inmensa mayoría de los sistemas de inteligencia artificial conlleva un riesgo mínimo. Tal es el caso de los sistemas de recomendación o filtros de correo no deseados. Aquellos que representen un riesgo alto deberán cumplir con unos requisitos estrictos como facilitar información clara a los usuarios, supervisión humana, un alto grado de solidez, precisión y ciberseguridad. Cabe destacar que, entre los sistemas de inteligencia artificial de alto riesgo se encuentran, por ejemplo, determinadas infraestructuras críticas, como en los ámbitos del agua, el gas y la electricidad; productos sanitarios; sistemas para determinar el acceso a instituciones educativas o para la contratación de personas; o determinados sistemas utilizados en los ámbitos de la policía, el control fronterizo, la administración de justicia y los procesos democráticos. Además, los sistemas de identificación biométrica, categorización y reconocimiento de emociones también se consideran de alto riesgo por lo que será obligatorio informar a los usuarios cuando se expongan a este tipo de sistemas. Por otro lado, los usos de la IA que entrañen riesgos inaceptables estarán prohibidos en la Unión Europea. De esta forma, estará excluida la manipulación cognitiva conductual, el rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión, el reconocimiento de emociones en los lugares de trabajo y en las instituciones de enseñanza, la puntuación ciudadana, la categorización biométrica para deducir datos sensibles como la orientación sexual o las creencias religiosas, y algunos casos de vigilancia policial predictiva de personas.
Responsabilidad
Dado que los sistemas de IA utilizan para su desarrollo y distribución cadenas de valor complejas, el acuerdo incluye la asignación de responsabilidades y las funciones de los distintos agentes que participan en dichas cadenas, en particular los proveedores y los usuarios.
Transparencia
Igualmente se prevé un refuerzo de la transparencia en relación con el uso de sistemas de IA de alto riesgo. De este modo, con el fin de garantizar unos sistemas transparentes, los usuarios que utilicen sistemas de IA como robots conversacionales deben ser conscientes de que están interactuando con una máquina. Las ultrafalsificaciones y otros contenidos generados por IA deberán etiquetarse como tales. Los contenidos sintéticos de audio, vídeo, texto e imágenes deberán reconocerse como generados o manipulados artificialmente.
Reclamaciones y sanciones
En cuanto a la posibilidad de presentar una reclamación relacionada con el incumplimiento del Reglamento de Inteligencia Artificial, todas las personas físicas o jurídicas podrán hacerlo ante la autoridad de vigilancia del mercado pertinente. El texto prevé multas por infracciones fijadas como un porcentaje del volumen de negocios anual global de la empresa infractora. Oscilarían entre 35 millones de euros o el 7 % del volumen de negocios anual mundial (si esta cifra es superior) por infracciones relacionadas con aplicaciones de inteligencia artificial prohibidas, 15 millones de euros o el 3 % por incumplimiento de otras obligaciones y 7,5 millones de euros o el 1,5 % por la presentación de información incorrecta. Incluye también límites más proporcionados para las multas administrativas dirigidas a las pymes y las empresas emergentes.
Siguientes etapas
Tras este acuerdo provisional y ultimados los detalles técnicos del nuevo reglamento, el texto se someterá a los representantes de los Estados miembros (Coreper). Confirmado el texto íntegro, se someterá a una formalización jurídico-lingüística antes de que sea adoptado formalmente. Una vez que entre en vigor, salvo algunas excepciones para disposiciones específicas, se aplicará en un plazo de dos años.
Sobre el reglamento y su ámbito de aplicación
El reglamento de Inteligencia Artificial es una propuesta legislativa pionera en el mundo que puede servir como referente mundial para regular la IA en otras jurisdicciones. En palabras de la presidenta de la Comisión Europea, Ursula von der Leyen, “la ley de IA de la UE es el primer marco jurídico global en materia de inteligencia artificial en todo el mundo. Así pues, se trata de un momento histórico”. Ha señalado también que, con este acuerdo, se fomentará la innovación responsable en Europa centrada en el ser humano.
En lo que se refiere a su ámbito de aplicación, el futuro Reglamento europeo no se aplicará fuera del ámbito de aplicación del Derecho de la UE y, en cualquier caso, no debe afectar a las competencias de los Estados miembros en materia de seguridad nacional. Del mismo modo, tampoco se aplicará a los sistemas utilizados exclusivamente con fines militares y de defensa, a los sistemas de IA utilizados únicamente con fines de investigación e innovación, ni a las personas que utilicen esta tecnología por motivos que no sean profesionales.
Fuentes de la información Consejo de la UE y Comisión Europea.