Este viernes, se ha dado un paso adelante en la aprobación del Reglamento de Inteligencia Artificial de la Unión Europea, al tener un acuerdo provisional del texto por parte del Parlamento y del Consejo

El reglamento tiene como objetivo garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental estén protegidos contra la IA de alto riesgo, al tiempo que se impulsa la innovación en este campo. Las reglas establecen obligaciones para la IA en función de sus posibles riesgos y nivel de impacto.

Aplicaciones de IA prohibidas

Reconociendo la potencial amenaza que ciertos tipos de aplicaciones de IA representan para los derechos de los ciudadanos y la democracia, los colegisladores acordaron prohibir:

  • Sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas o filosóficas, orientación sexual, raza);
  • Recopilación no dirigida de imágenes faciales de Internet o imágenes de circuito cerrado de televisión para crear bases de datos de reconocimiento facial;
  • Reconocimiento de emociones en el lugar de trabajo y las instituciones educativas;
  • Codificación social basada en el comportamiento social o las características personales;
  • Sistemas de IA que manipulan el comportamiento humano para eludir su libre voluntad;
  • IA utilizada para explotar las vulnerabilidades de las personas (debido a su edad, discapacidad, situación social o económica).

Excepciones para la aplicación de la ley

Los negociadores acordaron una serie de salvaguardias y excepciones limitadas para el uso de sistemas de identificación biométrica (RBI) en espacios públicos para fines de aplicación de la ley, sujeto a autorización judicial previa y para listas de delitos estrictamente definidas. El RBI “post-remoto” se utilizaría estrictamente en la búsqueda dirigida de una persona condenada o sospechosa de haber cometido un delito grave.

El RBI “en tiempo real” cumpliría estrictas condiciones y su uso estaría limitado en tiempo y lugar, para los siguientes fines:

  • Búsquedas dirigidas de víctimas (secuestro, trata, explotación sexual);
  • Prevención de una amenaza terrorista específica y presente; o
  • Localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el reglamento (por ejemplo, terrorismo, trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal, delito ambiental).

Obligaciones para sistemas de alto riesgo

Para los sistemas de IA clasificados como de alto riesgo (debido a su potencial significativo de daños a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho), se acordaron claras obligaciones.

Los eurodiputados lograron incluir una evaluación de impacto en materia de derechos fundamentales obligatoria, entre otros requisitos, aplicable también a los sectores bancario y asegurador.

Los sistemas de IA utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar denuncias sobre sistemas de IA y a recibir explicaciones sobre las decisiones tomadas sobre la base de sistemas de IA de alto riesgo que afecten a sus derechos.

Barreras para sistemas de inteligencia artificial general

Para tener en cuenta la amplia gama de tareas que pueden realizar los sistemas de IA y la rápida expansión de sus capacidades, se acordó que los sistemas de IA general (GPAI), y los modelos GPAI en los que se basan, deberán respetar los requisitos de transparencia tal como se propuso inicialmente por el Parlamento. Estos incluyen la elaboración de documentación técnica, el cumplimiento de la normativa de copyright de la UE y la difusión de resúmenes detallados sobre el contenido utilizado para el entrenamiento.

Para los modelos GPAI de alto impacto con riesgo sistémico, los negociadores del Parlamento lograron obtener obligaciones más estrictas. Si estos modelos cumplen ciertos criterios, deberán realizar evaluaciones de modelos, evaluar y mitigar los riesgos sistémicos, realizar pruebas adversas, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad y reportar su eficiencia energética. Los eurodiputados también insistieron en que, hasta que se publiquen normas armonizadas de la UE, los GPAIs con riesgo sistémico pueden basarse en códigos de conducta para cumplir con el reglamento.

Medidas para apoyar la innovación y las PYMES

Para garantizar que todas las empresas puedan desarrollar sus soluciones de IA, en especial las PYMES eurodiputados querían garantizar que las empresas, especialmente las pymes, puedan desarrollar soluciones de IA sin una presión indebida de los gigantes de la industria que controlan la cadena de valor. Para ello, el acuerdo promueve los llamados “sandboxes regulatorios” y las pruebas en el mundo real, establecidos por las autoridades nacionales para desarrollar y entrenar IA innovadora antes de su comercialización.

Sanciones y entrada en vigor

El incumplimiento de las reglas puede dar lugar a multas de entre 35 millones de euros o el 7% de la facturación global.

Aún queda pendiente que se repasen numerosos detalles y flecos antes de la aprobación definitiva por Consejo y Parlamento europeos.