Skip to content

Entra en vigor la primera ley integral del mundo para regular la IA

UE Pionera en la Regulación de IA

Europa regula la IA

La Unión Europea ha marcado un hito al aprobar la primera ley integral del mundo destinada a regular la inteligencia artificial (IA). Esta ley, conocida como AI Act, establece un marco legal que clasifica y regula los sistemas de IA en función de los riesgos que suponen para los usuarios y la sociedad en general. Este paso pionero busca equilibrar la innovación con la protección de los derechos fundamentales y la seguridad de los ciudadanos.

Aspectos Clave de la Ley

El AI Act introduce varias categorías de regulación basadas en el nivel de riesgo de las aplicaciones de IA:

  1. Sistemas de Propósito General: Estos incluyen herramientas ampliamente utilizadas como ChatGPT de OpenAI o Bard de Google. Estos sistemas deben cumplir con estrictas normas de transparencia y derechos de autor. A partir de la entrada en vigor de la ley, estos sistemas tendrán un período de transición de 36 meses para adaptarse a las nuevas regulaciones​ 
  2. Sistemas de Alto Riesgo: Aplicaciones que se utilizan en sectores críticos como la salud, la educación, la aplicación de la ley y las infraestructuras críticas. Estos sistemas estarán sujetos a requisitos más rigurosos, incluyendo análisis de impacto obligatorio sobre los derechos fundamentales antes de su implementación​ 
  3. Sistemas Prohibidos: La ley prohíbe categóricamente ciertos usos de la IA considerados inaceptables. Esto incluye sistemas de vigilancia masiva y categorización biométrica basada en creencias políticas, religiosas, filosóficas, así como en la raza y la orientación sexual. También se prohíben sistemas que manipulen el comportamiento humano o que utilicen datos recolectados indiscriminadamente de internet para crear bases de datos faciales​ 

Implementación y Sanciones

La ley establece un cronograma de implementación gradual. Las restricciones a los sistemas de propósito general comenzarán 12 meses después de la entrada en vigor de la ley. Además, la normativa contempla la creación de una Oficina Europea de IA, encargada de supervisar el cumplimiento de la ley y de imponer sanciones en caso de infracción. Las multas pueden llegar hasta 35 millones de euros o el 7% de la facturación global de la empresa infractora, dependiendo de la gravedad de la infracción​ (DW)​​

Reacciones y Desafíos

La aprobación de esta ley ha sido recibida con una mezcla de entusiasmo y preocupación. Mientras que los defensores de la regulación, como el comisario europeo Thierry Breton, destacan que la UE se posiciona como líder en establecer estándares de IA confiable, algunos actores de la industria temen que la ley pueda ralentizar la innovación. Grupos de cabildeo y observatorios empresariales han señalado que muchos detalles de la normativa aún necesitan ser aclarados, y existe el riesgo de que las implementaciones específicas puedan ser debilitadas por la presión de la industria​ (infobae)​​ (euronews)​.

En resumen, el AI Act de la UE representa un esfuerzo ambicioso para regular una tecnología en rápida evolución, estableciendo un equilibrio entre la promoción de la innovación y la protección de los derechos fundamentales y la seguridad de los ciudadanos. Con su entrada en vigor, Europa da un paso significativo hacia una gestión responsable y ética de la inteligencia artificial en beneficio de toda la sociedad.

 

Cuadro Comparativo de Regulaciones de Inteligencia Artificial

AspectoUE – AI ActEE.UU. – Propuestas RegulatoriasChina – Ley de IA y DatosReino Unido – Enfoque Regulatorio
ÁmbitoIntegral, abarca toda la IA en función del riesgo.Basado en marcos sectoriales y recomendaciones, no ley integral aún.Regulación específica para aplicaciones de IA, con énfasis en seguridad y control estatal.Enfoque flexible, basado en principios y orientaciones sectoriales.
TransparenciaObligatoria para sistemas de propósito general y alto riesgo.Recomendaciones para la transparencia en aplicaciones críticas.Transparencia requerida, especialmente en aplicaciones públicas y comerciales.Recomendaciones para la transparencia en uso gubernamental y comercial.
Clasificación del RiesgoClasificación en niveles: alto riesgo, propósito general y sistemas prohibidos.Enfoque basado en riesgo, pero sin clasificación tan definida.Clasificación similar en términos de riesgo y aplicaciones prohibidas.Clasificación menos definida, se enfoca en la implementación segura.
SancionesMultas hasta 35 millones de euros o 7% de la facturación global.Sanciones menos definidas, varían según la jurisdicción y sector.Multas severas y sanciones penales para infracciones significativas.Multas y sanciones administrativas, menos estrictas comparadas con la UE.
ProhibicionesProhibición de sistemas de vigilancia masiva, manipulación de comportamiento.Prohibiciones limitadas, más enfoque en la gestión de riesgos.Estrictas prohibiciones en sistemas que afectan la seguridad nacional y privacidad.Prohibiciones basadas en el impacto social y ético, menos definidas.
Implementación y SupervisiónCreación de la Oficina Europea de IA para supervisión y cumplimiento.Basada en agencias existentes, falta de un órgano específico centralizado.Agencias gubernamentales específicas supervisan la implementación.Supervisión distribuida entre diferentes agencias reguladoras.
Innovación y DesarrolloFomenta la innovación responsable con estrictas normas de cumplimiento.Promueve la innovación con menor énfasis en regulaciones estrictas.Promueve la innovación bajo un control estricto del estado.Enfoque en promover la innovación con regulaciones flexibles y adaptables.
Derechos FundamentalesAnálisis de impacto obligatorio sobre los derechos fundamentales.Enfoque en proteger derechos a través de marcos sectoriales.Fuerte énfasis en la protección de derechos bajo el control estatal.Protección de derechos enmarcada en regulaciones sectoriales.