Skip to main content
Configurar el futuro digital de Europa

Propuesta de marco regulador sobre inteligencia artificial

La Comisión propone el primer marco jurídico sobre la IA, que aborda los riesgos de la IA y posiciona a Europa como líder a escala mundial.

    un hombre y una mujer trabajando en una pantalla de alta tecnología

© gorodenkoff - iStock Getty Images Plus

La propuesta regulatoria tiene por objeto proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la IA. Al mismo tiempo, la propuesta tiene por objeto reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (PYME).

La propuesta forma parte de un paquete más amplio de IA, que también incluye el Plan coordinado actualizado sobre IA. Juntos, el marco regulador y el plan coordinado garantizarán la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. Y reforzarán la adopción, la inversión y la innovación en IA en toda la UE.

¿Por qué necesitamos reglas sobre IA?

La propuesta de Reglamento sobre IA garantiza que los europeos puedan confiar en lo que la IA tiene que ofrecer. Si bien la mayoría de los sistemas de IA se limitan a ningún riesgo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.

Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción en particular. Por lo tanto, puede ser difícil evaluar si alguien ha sido injustamente desfavorecido, como en una decisión de contratación o en una solicitud de un plan de beneficios públicos.

Aunque la legislación vigente proporciona cierta protección, no es suficiente para hacer frente a los desafíos específicos que pueden plantear los sistemas de IA.

Las normas propuestas:

  • abordar los riesgos creados específicamente por las aplicaciones de IA;
  • proponer una lista de aplicaciones de alto riesgo;
  • establecer requisitos claros para los sistemas de IA para aplicaciones de alto riesgo;
  • definir obligaciones específicas para los usuarios de IA y los proveedores de aplicaciones de alto riesgo;
  • proponer una evaluación de la conformidad antes de que el sistema de IA se ponga en servicio o se comercialice;
  • proponer la aplicación después de la introducción en el mercado de un sistema de IA de este tipo;
  • proponer una estructura de gobernanza a nivel europeo y nacional.

Un enfoque basado en el riesgo

pirámide que muestra los cuatro niveles de riesgo: Riesgo inaceptable; Alto riesgo; riesgo limitado, mínimo o nulo

El marco regulador define cuatro niveles de riesgo en la IA:

  • Riesgo inaceptable
  • Alto riesgo
  • Riesgo limitado
  • Riesgo mínimo o nulo

Riesgo inaceptable

Todos los sistemas de IA considerados una clara amenaza para la seguridad, los medios de vida y los derechos de las personas serán prohibidos, desde la puntuación social por parte de los gobiernos hasta los juguetes que utilizan la asistencia de voz que fomentan comportamientos peligrosos.

Alto riesgo

Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en:

  • infraestructuras críticas (por ejemplo, transporte), que podrían poner en peligro la vida y la salud de los ciudadanos;
  • formación educativa o profesional, que puede determinar el acceso a la educación y al curso profesional de la vida de una persona (por ejemplo, la puntuación de los exámenes);
  • componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot);
  • empleo, gestión de los trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de currículums para los procedimientos de contratación);
  • servicios públicos y privados esenciales (por ejemplo, la calificación crediticia que deniega a los ciudadanos la oportunidad de obtener un préstamo);
  • aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas);
  • gestión de la migración, el asilo y el control de fronteras (por ejemplo, verificación de la autenticidad de los documentos de viaje);
  • administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos).

Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan comercializarse:

  • sistemas adecuados de evaluación y mitigación de riesgos;
  • alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios;
  • registro de la actividad para garantizar la trazabilidad de los resultados;
  • documentación detallada que proporcione toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su cumplimiento;
  • información clara y adecuada para el usuario;
  • medidas adecuadas de supervisión humana para minimizar el riesgo;
  • alto nivel de robustez, seguridad y precisión.

Todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios de acceso público con fines policiales está, en principio, prohibido.

Las excepciones limitadas están estrictamente definidas y reguladas, por ejemplo, cuando sea necesario para buscar a un niño desaparecido, para prevenir una amenaza terrorista específica e inminente o para detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave.

Dicho uso está sujeto a la autorización de un órgano judicial u otro órgano independiente y a límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas.

Riesgo limitado

El riesgo limitado se refiere a los sistemas de IA con obligaciones específicas de transparencia. Al utilizar sistemas de IA como chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada de continuar o dar un paso atrás.

Riesgo mínimo o nulo

La propuesta permite el uso libre de IA de riesgo mínimo. Esto incluye aplicaciones como videojuegos habilitados para IA o filtros de spam. La gran mayoría de los sistemas de IA utilizados actualmente en la UE entran en esta categoría.

proceso paso a paso para la declaración de conformidad
How does it all work in practice for providers of high risk AI systems?

Una vez que un sistema de IA está en el mercado, las autoridades están a cargo de la vigilancia del mercado, los usuarios garantizan la supervisión y el seguimiento humanos, y los proveedores cuentan con un sistema de seguimiento posterior a la comercialización. Los proveedores y usuarios también reportarán incidentes graves y mal funcionamiento.

Legislación preparada para el futuro

Como la IA es una tecnología en rápida evolución, la propuesta tiene un enfoque a prueba de futuro, permitiendo que las reglas se adapten al cambio tecnológico. Las aplicaciones de IA deben seguir siendo confiables incluso después de haber sido introducidas en el mercado. Esto requiere una gestión continua de la calidad y el riesgo por parte de los proveedores.

Próximos pasos

A raíz de la propuesta de la Comisión en abril de 2021, el Reglamento podría entrar en vigor a finales de 2022 o principios de 2023 en un período transitorio. En este período, se establecerían y elaborarían normas, y las estructuras de gobernanza establecidas serían operativas. La segunda mitad de 2024 es la primera vez que el Reglamento podría ser aplicable a los operadores con las normas listas y las primeras evaluaciones de conformidad realizadas.

Como una entrega reglamentaria adicional del Libro Blanco sobre la IA, el 28 de septiembre de 2022 se adoptó una propuesta de Directiva sobre responsabilidad por IA.

Últimas noticias

COMUNICADO DE PRENSA |
Derechos y principios digitales: una transformación digital para los ciudadanos de la UE

La Comisión acoge con satisfacción el acuerdo alcanzado ayer con el Parlamento y el Consejo sobre la Declaración europea sobre los derechos y principios digitales. La declaración, propuesta en enero, establece un punto de referencia claro sobre el tipo de transformación digital centrada en el ser humano que la UE promueve y defiende, tanto dentro como fuera de sus fronteras.

Contenidos relacionados

Visión general

Un enfoque europeo de la inteligencia artificial

El enfoque de la UE con respecto a la inteligencia artificial se centra en la excelencia y la confianza, con el objetivo de impulsar la investigación y la capacidad industrial, garantizando al mismo tiempo la seguridad y los derechos fundamentales.

Véase también

La Alianza Europea de la IA

La Alianza Europea de IA es una iniciativa de la Comisión Europea para establecer un diálogo político abierto sobre inteligencia artificial. Desde su lanzamiento en 2018, la AI Alliance ha involucrado a alrededor de 6000 partes interesadas a través de eventos regulares, consultas...