Skip to main content
Configurar el futuro digital de Europa

Ley de IA

La Ley de IA es el primer marco jurídico sobre IA, que aborda los riesgos de la IA y posiciona a Europa para desempeñar un papel de liderazgo a nivel mundial.

    un hombre y una mujer trabajando en una pantalla de alta tecnología

© gorodenkoff - iStock Getty Images Plus

La Ley de IA tiene como objetivo proporcionar a los desarrolladores e implementadores de IA requisitos y obligaciones claros con respecto a los usos específicos de la IA. Al mismo tiempo, el Reglamento pretende reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (PYME).

La Ley de IA forma parte de un paquete más amplio de medidas políticas para apoyar el desarrollo de una IA fiable, que también incluye el paquete de innovación de IA y el Plan coordinado sobre IA. En conjunto, estas medidas garantizarán la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. También reforzarán la adopción, la inversión y la innovación en IA en toda la UE.

La Ley de IA es el primer marco jurídico integral sobre IA en todo el mundo. El objetivo de las nuevas normas es fomentar una IA fiable en Europa y fuera de ella, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos y abordando los riesgos de modelos de IA muy potentes e impactantes.

¿Por qué necesitamos normas sobre IA?

La Ley de IA garantiza que los europeos puedan confiar en lo que ofrece la IA. Si bien la mayoría de los sistemas de IA se limitan a ningún riesgo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.

Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción en particular. Por lo tanto, puede ser difícil evaluar si alguien ha estado injustamente en desventaja, como en una decisión de contratación o en una solicitud de un plan de prestaciones públicas.

Aunque la legislación vigente proporciona cierta protección, no es suficiente para hacer frente a los desafíos específicos que pueden plantear los sistemas de IA.

Las normas propuestas:

  • abordar los riesgos creados específicamente por las aplicaciones de IA;
  • prohibir las prácticas de IA que plantean riesgos inaceptables;
  • determinar una lista de aplicaciones de alto riesgo;
  • establecer requisitos claros para los sistemas de IA para aplicaciones de alto riesgo;
  • definir obligaciones específicas implementadores y proveedores de aplicaciones de IA de alto riesgo;
  • exigir una evaluación de la conformidad antes de la puesta en servicio o la introducción en el mercado de un sistema de IA determinado;
  • poner en marcha la ejecución después de la introducción en el mercado de un sistema de IA determinado;
  • establecer una estructura de gobernanza a nivel europeo y nacional.

Un enfoque basado en el riesgo

El marco regulador define cuatro niveles de riesgo para los sistemas de IA:

pirámide que muestra los cuatro niveles de riesgo: Riesgo inaceptable; Alto riesgo; riesgo limitado, riesgo mínimo o nulo

 

Todos los sistemas de IA considerados una clara amenaza para la seguridad, los medios de vida y los derechos de las personas serán prohibidos, desde la puntuación social por parte de los gobiernos hasta los juguetes que utilizan asistencia de voz que fomentan comportamientos peligrosos.

Alto riesgo

Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en:

  • infraestructuras críticas (por ejemplo, el transporte), que podrían poner en peligro la vida y la salud de los ciudadanos;
  • formación educativa o profesional, que puede determinar el acceso a la educación y al curso profesional de la vida de una persona (por ejemplo, puntuación de los exámenes);
  • componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot);
  • empleo, gestión de los trabajadores y acceso al trabajo por cuenta propia (por ejemplo, programas informáticos de selección de currículos para los procedimientos de contratación);
  • servicios públicos y privados esenciales (por ejemplo, calificación crediticia que deniegue a los ciudadanos la oportunidad de obtener un préstamo);
  • aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas);
  • gestión de la migración, el asilo y el control fronterizo (por ejemplo, examen automatizado de las solicitudes de visado);
  • administración de justicia y procesos democráticos (por ejemplo, soluciones de IA para buscar resoluciones judiciales).

Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan comercializarse:

  • sistemas adecuados de evaluación y mitigación de riesgos;
  • alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios;
  • registro de la actividad para garantizar la trazabilidad de los resultados;
  • documentación detallada que proporcione toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su conformidad;
  • información clara y adecuada para el implementador;
  • medidas adecuadas de supervisión humana para minimizar el riesgo;
  • alto nivel de robustez, seguridad y precisión.

Todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios de acceso público con fines policiales está, en principio, prohibido.

Las excepciones limitadas están estrictamente definidas y reguladas, como cuando sea necesario para buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave.

Estos usos están sujetos a la autorización de un órgano judicial u otro órgano independiente y a límites apropiados en el tiempo, el alcance geográfico y las bases de datos consultadas.

Riesgo limitado

El riesgo limitado sereduce a los riesgos asociados con la falta de transparencia en el uso de la IA. La Ley de IA introduce obligaciones específicas de transparencia para garantizar que los seres humanos estén informados cuando sea necesario, fomentando la confianza. Por ejemplo, cuando se utilizan sistemas de IA como chatbots, los seres humanos deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada de continuar o dar un paso atrás. Los proveedores también tendrán que asegurarse de que el contenido generado por IA sea identificable. Además, el texto generado por IA publicado con el propósito de informar al público sobre asuntos de interés público debe etiquetarse como generado artificialmente. Esto también se aplica al contenido de audio y video que constituye falsificaciones profundas.

Riesgo mínimo o nulo

La Ley de IA permite el uso libre de la IA de riesgo mínimo. Esto incluye aplicaciones como videojuegos habilitados para IA o filtros de spam. La gran mayoría de los sistemas de IA utilizados actualmente en la UE entran en esta categoría.

¿Cómo funciona todo en la práctica para los proveedores de sistemas de IA de alto riesgo?

proceso paso a paso para la declaración de conformidad
How does it all work in practice for providers of high risk AI systems?

Una vez que un sistema de IA está en el mercado, las autoridades están a cargo de la vigilancia del mercado, los implementadores garantizan la supervisión y el seguimiento humanos, y los proveedores tienen un sistema de seguimiento posterior a la comercialización. Los proveedores y los implementadores también informarán de incidentes graves y mal funcionamiento.

Una solución para el uso confiable de grandes modelos de IA

Cada vez más, los modelos de IA de propósito general se están convirtiendo en componentes de los sistemas de IA. Estos modelos pueden realizar y adaptar innumerables tareas diferentes.

Si bien los modelos de IA de propósito general pueden permitir soluciones de IA mejores y más potentes, es difícil supervisar todas las capacidades.

Allí, la Ley de IA introduce obligaciones de transparencia para todos los modelos de IA de propósito general para permitir una mejor comprensión de estos modelos y obligaciones adicionales de gestión de riesgos para modelos muy capaces e impactantes. Estas obligaciones adicionales incluyen la autoevaluación y mitigación de los riesgos sistémicos, la notificación de incidentes graves, la realización de evaluaciones de ensayos y modelos, así como los requisitos de ciberseguridad.

Legislación preparada para el futuro

Dado que la IA es una tecnología en rápida evolución, la propuesta tiene un enfoque a prueba de futuro, que permite que las normas se adapten al cambio tecnológico. Las aplicaciones de IA deben seguir siendo fiables incluso después de haber sido comercializadas. Esto requiere calidad continua y gestión de riesgos por parte de los proveedores.

Ejecución y ejecución

La Oficina Europea de IA, establecida en febrero de 2024 dentro de la Comisión, supervisa la aplicación y aplicación de la Ley de IA con los Estados miembros. Su objetivo es crear un entorno donde las tecnologías de IA respeten la dignidad humana, los derechos y la confianza. También fomenta la colaboración, la innovación y la investigación en IA entre varias partes interesadas. Además, participa en el diálogo y la cooperación internacionales sobre cuestiones de IA, reconociendo la necesidad de alinearse a nivel mundial con respecto a la gobernanza de la IA. A través de estos esfuerzos, la Oficina Europea de IA se esfuerza por posicionar a Europa como líder en el desarrollo ético y sostenible de las tecnologías de IA.

Próximos pasos

En diciembre de 2023, el Parlamento Europeo y el Consejo de la UE alcanzaron un acuerdo político sobre la Ley de IA. El texto está en proceso de aprobación y traducción oficiales. La Ley de IA entrará en vigor 20 días después de su publicación en el Diario Oficial, y será plenamente aplicable dos años después, con algunas excepciones: las prohibiciones entrarán en vigor después de seis meses, las normas de gobernanza y las obligaciones para los modelos de IA de propósito general serán aplicables después de 12 meses y las normas para los sistemas de IA, integradas en productos regulados, se aplicarán después de 36 meses. Para facilitar la transición al nuevo marco regulador, la Comisión ha puesto en marcha el Pacto sobre IA, una iniciativa voluntaria que tiene por objeto apoyar la futura aplicación e invita a los desarrolladores de IA de Europa y de otros países a cumplir con las obligaciones clave de la Ley de IA con antelación.

Últimas noticias

La UE y la República de Corea reafirman su asociación para una transformación digital integradora y resiliente

La UE y la República de Corea han celebrado hoy el segundo Consejo de Asociación Digital en Bruselas. El Consejo estuvo copresidido por el Comisario de Mercado Interior, Thierry Breton, y por el Ministro coreano de Ciencia y Tecnologías de la Información y la Comunicación, Dr. Lee Jong-Ho.

COMUNICADO DE PRENSA |
La Comisión abre convocatorias para invertir más de 176 millones EUR en capacidades digitales y tecnología

La Comisión Europea abrió un nuevo conjunto de convocatorias de propuestas en el marco de los programas de trabajo 2023-2024 del programa Europa Digital para reforzar las capacidades digitales en toda la UE. Estas convocatorias están abiertas a las empresas, las administraciones públicas y otras entidades de los Estados miembros de la UE, los países de la AELC/EEE y los países asociados. El presupuesto para este conjunto de convocatorias supera los 176 millones EUR.

PRESS RELEASE |
Commission makes first payment of €202 million to Finland under the Recovery Facility

The European Commission opened a new set of calls for proposals under the 2023-2024 Work Programmes of the Digital Europe Programme to strengthen digital capacities across EU. These calls are open to businesses, public administrations, and other entities from the EU Member States, EFTA/EEA countries, and associated countries. The budget for this set of calls is over €176 million.

Contenidos relacionados

Visión general

Enfoque europeo de la inteligencia artificial

El enfoque de la UE con respecto a la inteligencia artificial se centra en la excelencia y la confianza, con el objetivo de impulsar la investigación y la capacidad industrial, garantizando al mismo tiempo la seguridad y los derechos fundamentales.

En detalle

Pacto de IA

El Pacto sobre IA alentará y apoyará a las empresas en la planificación anticipada de las medidas previstas en la Ley de IA.

Véase también

Plan coordinado de inteligencia artificial

El Plan Coordinado sobre Inteligencia Artificial tiene por objeto acelerar la inversión en IA, aplicar estrategias y programas de IA y armonizar la política de IA para evitar la fragmentación en Europa.

La Alianza Europea de IA

La Alianza Europea de IA es una iniciativa de la Comisión Europea para establecer un diálogo político abierto sobre inteligencia artificial. Desde su lanzamiento en 2018, AI Alliance ha involucrado a alrededor de 6000 partes interesadas a través de eventos regulares, consultas...