Reglamento sobre el uso de la inteligencia artificial

La Comisión Europea ha propuesto un reglamento pionero sobre la Inteligencia Artificial que clasifica los sistemas según su riesgo, estableciendo normas para proteger los derechos fundamentales y fomentar la innovación responsable en la UE.

El 21 de abril, la Comisión Europea publicó las bases para el Reglamento sobre el uso de la Inteligencia Artificial (IA), con el objetivo de garantizar que los europeos puedan confiar en esta tecnología, protegiendo sus derechos fundamentales frente a los riesgos asociados a su uso. Este reglamento establece un marco jurídico pionero para la IA y un plan coordinado con los Estados miembros, lo que garantizará tanto la seguridad como los derechos fundamentales de personas y empresas, mientras se fomenta la inversión y la innovación en la Unión Europea (UE).

Categorización de riesgos de la IA

El reglamento clasifica los sistemas de IA en cuatro categorías según el riesgo que representan para los derechos fundamentales y la seguridad:

  • Riesgo inadmisible: Los sistemas que manipulen el comportamiento humano o faciliten la puntuación social por gobiernos serán prohibidos. Ejemplos incluyen juguetes con asistencia vocal que inciten a comportamientos peligrosos o sistemas que manipulen la voluntad de los usuarios.
  • Alto riesgo: Se consideran de alto riesgo los sistemas que puedan afectar la salud, la seguridad o los derechos fundamentales. Esto incluye IA utilizada en infraestructuras críticas, educación, seguridad de productos, empleo, servicios esenciales, aplicación de la ley, control migratorio, administración de justicia, entre otros. Estos sistemas deberán cumplir estrictos requisitos antes de su comercialización, como evaluación de riesgos, trazabilidad, supervisión humana y alta calidad de datos para evitar sesgos y resultados discriminatorios.
  • Riesgo limitado: En esta categoría se incluyen sistemas de IA que interactúan con personas o detectan emociones, como los robots conversacionales. Los proveedores deberán garantizar la transparencia, informando a los usuarios de que están interactuando con una máquina.
  • Riesgo mínimo o nulo: Los sistemas que presentan un riesgo mínimo, como videojuegos o filtros de spam, no estarán sujetos a regulación especial, ya que su impacto en la seguridad y los derechos es insignificante.

Gobernanza y sanciones

La Comisión Europea propone que las autoridades nacionales de vigilancia del mercado supervisen el cumplimiento del reglamento, mientras que un Comité Europeo de Inteligencia Artificial facilitará su implementación. Además, se sugieren códigos de conducta voluntarios para sistemas de IA que no impliquen alto riesgo y espacios controlados de prueba para fomentar la innovación.

El reglamento establece sanciones severas para quienes infrinjan sus disposiciones. Las multas pueden llegar hasta 30 millones de euros o el 6% del volumen de negocios anual global, dependiendo de la infracción. Las empresas que incumplan la prohibición de prácticas de IA inaceptables o los requisitos esenciales serán objeto de sanciones financieras considerables.

Aspectos claves de la ley

El Parlamento Europeo prioriza que los sistemas de IA en la UE sean seguros, transparentes, no discriminatorios y respetuosos con el medio ambiente. También enfatiza que las personas deben supervisar estos sistemas para evitar resultados perjudiciales. Se exige que los sistemas de IA revelen si han sido generados por IA, diseñen modelos que eviten la generación de contenido ilegal y publiquen resúmenes de los datos usados en su entrenamiento.

Además, la ley de IA clasifica las aplicaciones en función de su riesgo, desde el riesgo inaceptable, como la manipulación cognitiva o el reconocimiento facial en tiempo real, hasta los sistemas de alto riesgo que incluyen identificación biométrica, gestión de infraestructuras críticas, empleo, control de fronteras, entre otros. Los sistemas de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.

Por otro lado, la IA generativa, como ChatGPT, no se considera de alto riesgo, pero estará sujeta a requisitos de transparencia. Los contenidos generados o modificados por IA, como las "ultrafalsificaciones" (deepfakes), deberán etiquetarse claramente como tales.

Fomento de la innovación y próximos pasos

La legislación contempla espacios de prueba para que las pymes y empresas emergentes puedan desarrollar IA en condiciones reales antes de su comercialización. Se espera que las distintas partes de la ley entren en vigor de manera escalonada, con un plazo de 24 meses para su plena implementación. Algunas partes, como la prohibición de sistemas de riesgo inaceptable y los códigos de buenas prácticas, se aplicarán en plazos más cortos.

En resumen, el nuevo Reglamento sobre IA de la UE busca un equilibrio entre garantizar la seguridad y los derechos fundamentales, fomentar la confianza en la IA, y estimular la innovación responsable en el desarrollo de esta tecnología.

Las Oficinas Acelera pyme puestas en marcha en toda España por Red.es, entidad pública adscrita al Ministerio para la Transformación Digital y de la Función Pública a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial, cuentan en su segunda convocatoria 2022 con un importe de ayuda concedida de 11.830.851,68€, siendo el importe de la ayuda máxima el 80% del presupuesto subvencionable. El beneficiario cofinanciará el porcentaje restante. Las actuaciones están financiadas con cargo al Programa Operativo Crecimiento Inteligente, Fondos Europeos de Desarrollo Regional (FEDER) del periodo de programación 2021-2027.