Definiciones del artículo 4 y de la Ley de IA
Los proveedores e implementadores de sistemas de IA deben adoptar medidas para garantizar un nivel suficiente de alfabetización en materia de IA de su personal y de otras personas que se ocupen del funcionamiento y el uso de los sistemas de IA en su nombre. Deben hacerlo teniendo en cuenta sus conocimientos técnicos, experiencia, educación y formación del personal y otras personas, así como el contexto en el que se utilizarán los sistemas de IA y las personas en las que se utilizarán los sistemas de IA.
El concepto de alfabetización en materia de IA mencionado en el artículo 4 de la Ley de IA se basa en la definición del término que figura en el artículo 3, apartado 56, de la Ley de IA, según el cual: «alfabetización en materia de IA»: capacidades, conocimientos y comprensión que permiten a los proveedores, implementadores y personas afectadas, teniendo en cuenta sus respectivos derechos y obligaciones en el contexto del presente Reglamento, realizar un despliegue informado de los sistemas de IA, así como sensibilizar sobre las oportunidades y los riesgos de la IA y los posibles daños que puede causar.
El artículo 4 de la Ley de IA es una disposición clave para garantizar que todos los proveedores y responsables del despliegue de sistemas de IA doten a su personal de las capacidades, los conocimientos y la comprensión adecuados del sistema o sistemas proporcionados o desplegados. Esto afecta a cualquier persona de la organización que se ocupe directamente de un sistema de IA y refuerza las disposiciones de transparencia (artículo 13 de la Ley de IA) y supervisión humana (artículo 14 de la Ley de IA) incluidas en el Reglamento. Al mismo tiempo, el artículo 4 contribuye indirectamente a la protección de las personas afectadas, ya que garantiza una aplicación efectiva de las normas de la Ley de IA.
«Personas que se ocupan del funcionamiento y el uso de sistemas de IA en nombre de proveedores/desplegadores» significa que no se trata de empleados, sino de personas que, en términos generales, están bajo el mandato organizativo. Podría ser, por ejemplo, un contratista, un proveedor de servicios, un cliente.
El artículo 4 de la Ley de IA no implica la obligación de medir el conocimiento de la IA de los empleados. Sin embargo, afirma que los proveedores y los implementadores de IA deben garantizar un nivel suficiente de alfabetización en materia de IA, teniendo en cuenta los conocimientos técnicos, la experiencia, la educación y la formación de los empleados.
Sí, la Ley de IA distingue entre modelos de IA (modelos de IAGP), sistemas de IA, incluidos los sistemas de IAGP, y sistemas prohibidos de alto riesgo. Para más detalles, véanse también las directrices sobre la definición de sistemas de IA, publicadas por la Comisión el 6 de febrero para ayudar a los proveedores y otras personas pertinentes a determinar si un sistema de software constituye un sistema de IA y facilitar la aplicación efectiva de las normas. Estas directrices, que no son vinculantes y están diseñadas para evolucionar con el tiempo, explican la aplicación práctica del concepto jurídico, anclado en la Ley de IA. Las directrices sobre la definición de sistemas de IA se publicaron además de las Directrices sobre prácticas prohibidas de inteligencia artificial (IA), tal como se definen en la Ley de IA.
Por el momento, puede encontrarse información sobre las actividades de la Comisión en relación con el artículo 4 de la Ley de IA en la página web delPacto sobre laIA, incluida la grabación del seminario web que tuvo lugar el 20 de febrero y el repositorio permanente sobre alfabetización en materia de IA. Se está preparando una página web específica sobre alfabetización y capacidades en materia de IA.
Cumplimiento del artículo 4
La Oficina de IA no impondrá requisitos estrictos en relación con el artículo 4 de la Ley de IA y su «nivel suficiente de alfabetización en materia de IA». Por el contrario, considera necesario un cierto grado de flexibilidad, teniendo en cuenta el amplio tema de la alfabetización en IA y la tecnología en rápida evolución que es la IA. Sin embargo, como mínimo, para cumplir el artículo 4 de la Ley de IA, los proveedores y los implementadores de sistemas de IA deben:
a) Garantizar una comprensión general de la IA dentro de su organización: ¿Qué es la IA? ¿Cómo funciona? ¿Qué IA se utiliza en nuestra organización? ¿Cuáles son sus oportunidades y peligros?
b) Considerar el papel de su organización (proveedor o implementador de sistemas de IA): ¿Mi organización está desarrollando sistemas de IA o simplemente está utilizando sistemas de IA desarrollados por otra organización?
c) Considerar el riesgo de los sistemas de IA proporcionados o desplegados: ¿Qué necesitan saber los empleados cuando tratan con este sistema de IA? ¿Cuáles son los riesgos que deben tener en cuenta y deben tener en cuenta la mitigación?
d) Construir concretamente sus acciones de alfabetización en IA sobre el análisis anterior, considerando
- diferencias en los conocimientos técnicos, la experiencia, la educación y la formación del personal y otras personas: ¿cuánto saben los empleados/personas sobre la IA y los sistemas de la organización que utilizan? ¿Qué más deberían saber?
- así como el contexto en el que deben utilizarse los sistemas de IA y las personas en las que deben utilizarse los sistemas de IA. ¿En qué sector y para qué finalidad/servicio se utiliza el sistema de IA?
Las consideraciones a, b, c y d incluyen aspectos legales y éticos. Por lo tanto, se fomentan las conexiones con el Reglamento de IA de la UE (es decir, la comprensión de la Ley de IA) y con los principios de ética y gobernanza.
Como se indica en la respuesta a la pregunta anterior, para cumplir el artículo 4 de la Ley de IA, las organizaciones deben tener en cuenta su papel (siendo proveedores o implementadores de sistemas de IA), así como los riesgos asociados a los sistemas de IA que proporcionan o implementan. De acuerdo con esto, las organizaciones deben adaptar su enfoque de alfabetización en IA. Por ejemplo, si los sistemas de IA de la organización son de alto riesgo, de conformidad con el capítulo III de la Ley de IA, podrían ser pertinentes medidas adicionales para garantizar que los empleados sean conscientes de cómo tratar con los sistemas de IA en cuestión y evitar o mitigar sus riesgos.
Esto depende de las respuestas de la organización a las consideraciones de la pregunta 1. Sin embargo, en muchos casos, el mero hecho de basarse en las instrucciones de uso de los sistemas de IA o de pedir al personal que las lea podría ser ineficaz e insuficiente. El artículo 4 de la Ley de IA tiene por objeto proporcionar la formación y la orientación más adecuadas sobre la base del nivel y el tipo de conocimientos de cada grupo destinatario, así como teniendo en cuenta el contexto y la finalidad de los sistemas de IA utilizados en la organización.
Esto también está en consonancia con otras disposiciones de la Ley de IA. Por ejemplo, el artículo 26 introduce la obligación de que los responsables del despliegue de sistemas de alto riesgo garanticen que el personal que se ocupa de los sistemas de IA en la práctica esté suficientemente formado para manejar el sistema y garantizar la supervisión humana. Por lo tanto, no basta con seguir las instrucciones de uso, sino que son necesarias medidas adicionales.
No hay un tamaño único para todos cuando se trata de alfabetización en IA y la Oficina de IA no tiene la intención de imponer requisitos estrictos o entrenamientos obligatorios. Los requisitos para una formación dependen del contexto concreto. Si bien replicar las prácticas recogidas no otorga automáticamente la presunción de cumplimiento del artículo 4, las iniciativas en elrepositorio vivo sobre alfabetización en materia de IA podrían servir de inspiración.
No, la Oficina de IA no impone requisitos para sectores específicos. Sin embargo, como se indica en la respuesta a la pregunta 1, el contexto —incluidos el sector y la finalidad— en el que se proporcionan o implementan los sistemas de IA debe ser pertinente a la hora de desarrollar una iniciativa de alfabetización en materia de IA. Además, debe tenerse en cuenta el nivel de riesgo de los sistemas de IA.
Esto depende del tipo concreto de sistema de IA y del riesgo (por ejemplo, de alto riesgo). En general, las personas que trabajan para un proveedor de servicios o contratista deben tener las habilidades de IA adecuadas para cumplir la tarea en cuestión (igual que los empleados).
Sí, deben ser informados sobre los riesgos específicos, por ejemplo, la alucinación.
Estas son dos preguntas distintas. Los empleados y el humano en el bucle necesitan las habilidades adecuadas, dirigidas en cuanto al sistema que están utilizando.
Normalmente sí, pero depende de la herramienta de IA en cuestión y de su cualificación específica. Esto es particularmente relevante en vista de la velocidad de los desarrollos tecnológicos.
La organización aún debe considerar los pasos en la respuesta a la pregunta 1 y se pregunta: ¿Saben estos empleados técnicos lo que hay que saber sobre los sistemas de IA de la organización y cómo tratarlos? ¿Son conscientes de todos los riesgos y cómo evitarlos/mitigarlos? Además, la organización debe considerar qué más podrían necesitar saber estos empleados; por ejemplo, aspectos jurídicos y éticos de la IA.
Sí, el artículo 4 de la Ley de IA anima a los proveedores y responsables del despliegue a tener en cuenta los conocimientos, la experiencia, la educación y la formación de los empleados y otras personas para proporcionar un nivel suficiente de alfabetización en materia de IA. Dada la diferencia entre los sistemas de IA y el hecho de que el nivel de conocimientos y experiencia, así como el tipo de educación y formación recibida, pueden variar, puede ser adecuado tener diferentes niveles de formación o enfoques de aprendizaje.
No es necesario un certificado. Las organizaciones pueden llevar un registro interno de las formaciones y/u otras iniciativas de orientación.
No, ninguna estructura de gobernanza específica está obligada a cumplir el artículo 4 de la Ley de IA.
Aplicación del artículo 4
El artículo 4 de la Ley de IA entró en vigor el 2 de febrero de 2025, por lo que ya se aplica la obligación de adoptar medidas para garantizar la alfabetización en materia de IA de su personal. Las normas de supervisión y ejecución se aplican a partir del 3 de agosto de 2026.
La supervisión y el cumplimiento del artículo 4 de la Ley de IA no corresponde a la Oficina de IA, pero es competencia de las autoridades nacionales de vigilancia del mercado que deberán ser designadas a más tardar el 2 de agosto de 2025. Las autoridades nacionales de vigilancia del mercado comenzarán a supervisar y hacer cumplir las normas a partir del 2 de agosto de 2026. Si bien las decisiones sobre la ejecución recaen en las autoridades nacionales de vigilancia del mercado de los distintos Estados miembros, la Oficina de IA colaborará estrechamente con el Consejo de IA para apoyar una aplicación adecuada.
Las prohibiciones se aplican desde el 2 de febrero de 2025. Con el Consejo de IA y la cooperación entre todas las autoridades pertinentes, se garantizará una aplicación coherente de las normas.
Las autoridades nacionales de vigilancia del mercado podrían imponer sanciones y otras medidas de ejecución para sancionar las infracciones del artículo 4. Esto se basará en la legislación nacional que los Estados miembros deben adoptar a más tardar el 2 de agosto de 2025.
Es importante subrayar que la aplicación de la Ley de IA sigue un enfoque proporcionado. Toda sanción debe ser proporcionada, basarse en el caso concreto y tener en cuenta factores como la naturaleza y la gravedad y el carácter doloso y negligente de la infracción. Sin embargo, esto podría ser más probable si hay pruebas de un incidente debido a la falta de capacitación y orientación adecuadas de los empleados u otras personas.
El marco jurídico de la Ley de IA se aplica tanto a los agentes públicos como a los privados dentro y fuera de la UE, siempre que el sistema de IA se introduzca en el mercado de la Unión, se utilice en la Unión o su uso tenga un impacto en las personas ubicadas en la UE. Esto también es válido para el artículo 4 de la Ley de IA.
La aplicación pública significa que cada Estado miembro designará a las autoridades responsables de hacer cumplir las disposiciones de la Ley de IA, que supervisarán y harán cumplir esta ley. La ejecución privada se refiere al supuesto en el que un particular sufre un perjuicio y considera que ello se debe a que una organización no cumple la obligación del artículo 4 y demanda a la organización para que perciba una indemnización por daños y perjuicios.
Cuando se produce un daño o perjuicio, el proveedor de un sistema de IA puede ser demandado, de conformidad con la legislación nacional. La Ley de Inteligencia Artificial no crea delitos ni un derecho a compensación.
Enfoque de AI Office para la alfabetización en IA
Por el momento, se proporcionará orientación a través de otros ejemplos de prácticas, seminarios web y aclaraciones a través de este Q&A.
Una vez designadas, las autoridades nacionales de vigilancia del mercado pertinentes podrían proporcionar más orientaciones sobre el cumplimiento de la normativa. La Oficina de IA colaborará estrechamente con el Consejo de IA en el tema de la alfabetización en materia de IA, en consonancia con el artículo 66, letra f), y el artículo 95, apartado 2, letra f), de la Ley de IA.
La Comisión publicará directrices sobre la aplicación de los requisitos y obligaciones a que se refieren los artículos 8 a 15 y el artículo 25 de la Ley de IA, y estas directrices también abordarán cuestiones de alfabetización, al debatir, por ejemplo, la supervisión humana o la gestión de riesgos.
La Comunicación AI@EC ya identificó como acción operativa desarrollar una política para construir y mantener una mano de obra cualificada en IA. La Comisión Europea ya ha aplicado varias medidas para su personal en relación con la alfabetización en materia de IA:
- La creación de un portal web interno específico sobre IA como ventanilla única accesible a todo el personal para los contenidos relacionados con la IA: directrices sobre IA, recursos de formación sobre IA, eventos y noticias.
- Definición en la plataforma de formación de la Comisión de paquetes de aprendizaje de IA, orientados a diferentes objetivos: generalistas, gestores y desarrolladores (especialistas). Estos paquetes contienen una lista seleccionada de capacitaciones relevantes, categorizando luego en esenciales, altamente recomendados y recomendados. Entrenamientos adicionales y grabación de webinars están disponibles también en la plataforma.
- Entrenamientos de herramientas de IA: en la sección específica del portal de IA se enumeran las herramientas de IA, a disposición de todo el personal, que incluyen los recursos de aprendizaje pertinentes para cada herramienta. Hay sesiones periódicas de preguntas y respuestas sobre el uso de la IA en su trabajo diario.
- Existe una comunidad de práctica de IA en la que cualquier persona puede hacer preguntas relacionadas con la IA e interactuar con expertos en IA.
En la actualidad, muchas de las agencias ya tienen acceso a la plataforma de aprendizaje de la Comisión (EU-Learn), así como a recursos como los paquetes de aprendizaje de IA y otras formaciones de la Comisión.
Para apoyar la aplicación y el cumplimiento del artículo 4 de la Ley de IA, la Oficina de IA seguirá fomentando el repositorio permanente sobre prácticas de alfabetización en materia de IA, reuniendo más ejemplos de organizaciones y actualizando el cuestionario de preguntas y respuestas disponible. Se organizarán nuevas actividades de sensibilización y se pondrá en marcha una página web específica para las actividades relacionadas con la alfabetización en materia de IA (dentro y fuera del ámbito de aplicación del artículo 4), las capacidades y el talento con el objetivo de promover el acceso a la alfabetización en materia de IA y fomentar el diálogo sobre la IA para todos.
La Oficina de IA valora altamente los conocimientos y la experiencia de todas las partes interesadas, incluida la industria. Por esta razón, hemos creado el Pacto de IA para fomentar la creación de una comunidad colaborativa, donde las partes interesadas puedan compartir las mejores prácticas y políticas internas que puedan ser útiles para otros en su viaje de cumplimiento. Con respecto a la alfabetización en materia de IA, en el marco del Pacto sobre la IA hemos publicado recientemente un repositorio vivo de prácticas de alfabetización en materia de IA; se invita a todo proveedor o desarrollador de sistemas de IA que haya puesto en marcha un programa de alfabetización en materia de IA a que presente su contribución.
La Oficina de IA verificará periódicamente que todas las contribuciones recibidas cumplen los criterios mínimos de transparencia y fiabilidad antes de aceptarlas en el repositorio público. Durante el período de verificación, la encuesta podría cerrarse temporalmente.
Otros recursos útiles
El repositorio vivo sobre prácticas de alfabetización en IA está disponible gratuitamente en nuestro sitio web: Repositorio viviente para fomentar el aprendizaje y el intercambio sobre la alfabetización en materia de IA
El repositorio incluye varios ejemplos de iniciativas en curso para fomentar las organizaciones de alfabetización en materia de IA de diferentes tamaños que proporcionan o despliegan diferentes tipos de sistemas de IA en diversos sectores privados y públicos. Las prácticas ofrecen ejemplos sobre cómo abordar los conocimientos de diferentes empleados (por ejemplo, técnicos, como el de los desarrolladores, frente a no técnicos, como el de un administrador o un asesor jurídico), pero también se refieren a iniciativas para otras personas, incluidos proveedores, socios y clientes. La lista de prácticas no es exhaustiva y se actualizará periódicamente con otras prácticas.
Si bien la replicación de las prácticas recogidas en este repositorio permanente no otorga automáticamente la presunción de cumplimiento del artículo 4, el repositorio tiene por objeto fomentar el aprendizaje y el intercambio entre los proveedores y los implementadores de sistemas de IA. Al publicar las prácticas, la Comisión no implica aprobación ni evaluación alguna.
Un ejemplo de iniciativa de la UE que podría apoyar a las pymes es la red de centros europeos de innovación digital (EDIH). Los EDIH son 251 ventanillas únicas en toda Europa (27 Estados miembros, 3 países de la AELC: Noruega, Islandia y Liechtenstein; 8 países asociados: Albania, Bosnia y Herzegovina, Kosovo, Montenegro, Macedonia del Norte, Serbia, Turquía y Ucrania), apoyando a las pymes y a las organizaciones del sector público para digitalizar sus procesos. El 80 % de los EDIH ya prestan servicios centrados en la IA, incluidos cursos de formación, talleres, campamentos de entrenamiento para diferentes necesidades y niveles de conocimiento de la IA. Las pymes y las organizaciones del sector público pueden ponerse en contacto con los EDIH para recibir apoyo con las tecnologías de IA y sus objetivos de digitalización en general. Los EDIH pueden ayudar como primer servicio de asistencia sobre la Ley de IA y servir de puntosde entrada a otras medidas de apoyo financiadas por la UE,como, entre otras, las instalaciones de ensayo y experimentación (TEF) o las fábricas de IA. Puede encontrar el EDIH más cercano a usted en este catálogo.
En el contexto del Pacto por la IA, la Oficina de IA organiza actos y seminarios web para involucrar a la comunidad de IA, promover el intercambio de conocimientos y las mejores prácticas para fomentar una IA fiable. Puede encontrar todas las grabaciones de eventos pasados y el anuncio de los próximos en la página dedicada: Eventos del Pacto de IA
Puede accederse libremente a más material útil sobre IA a través de la Plataforma de Capacidades y Empleos Digitales,en particular:
Como no existe un enfoque único para la alfabetización en IA, tampoco existe un marco único. A continuación se presentan algunos de los marcos más utilizados a nivel europeo e internacional, según su grupo objetivo.
Para todos los ciudadanos
- El Marco de Competencias Digitales para los Ciudadanos proporciona una comprensión común de lo que es la competencia digital. La publicación consta de dos partes principales: el marco integrado DigComp 2.2 ofrece más de 250 nuevos ejemplos de conocimientos, capacidades y actitudes que ayudan a los ciudadanos a participar con confianza, de forma crítica y segura en las tecnologías digitales, incluida la IA. En 2025 se lanzará una nueva versión del marco.
- La Plataforma de Capacidades y Empleos Digitales ofrece acceso abierto a una amplia variedad de información y recursos de alta calidad para todas las personas interesadas en el amplio tema de las capacidades y los puestos de trabajo digitales, incluido el tema de la inteligencia artificial.
Para el sector de la educación, profesores y alumnos:
- Estas directrices éticas sobre la IA y el uso de datos en la enseñanza y el aprendizaje están diseñadas para ayudar a los educadores a comprender el potencial que las aplicaciones de la IA y el uso de datos pueden tener en la educación y para concienciar sobre los posibles riesgos, de modo que puedan participar de manera positiva, crítica y ética con los sistemas de IA y explotar todo su potencial.
- La Plataforma Europea de Educación Escolar ofrece una serie de materiales sobre IA para profesores y alumnos.
- La comunidad de práctica delCentro deEducación Digital ofrece una oportunidad a las partes interesadas en la educación y la formación para debatir e intercambiar sobre temas de educación digital, incluida la IA. Dentro del Centro, un grupo de trabajo específico (escuadrón) ha publicado un informe sobre la IA en la educación que proporciona más información sobre el desarrollo de habilidades de IA y la formación del profesorado.
- El marco de competencias de IA de la UNESCO para los profesores tiene por objeto apoyar el desarrollo de competencias de IA entre los profesores para capacitarlos para utilizar estas herramientas tecnológicas en sus prácticas docentes de manera segura, eficaz y ética.
- El marco de competencias de IA de la UNESCO para los estudiantes pretende servir de guía para que los sistemas de educación pública desarrollen las competencias exigidas a todos los estudiantes y ciudadanos para la aplicación efectiva de las estrategias nacionales de IA y la construcción de futuros inclusivos, justos y sostenibles en esta nueva era tecnológica.
Related content
La Comisión pretende aumentar el número de expertos en IA formando y atrayendo a más investigadores y profesionales, y mejorando las capacidades en materia de IA de los trabajadores y de la población en general.