Esta sesión de preguntas y respuestas acompaña a la consulta de la Comisión y a la convocatoria de manifestaciones de interés para que las partes interesadas aporten su contribución a las directrices y a un Código de buenas prácticas sobre sistemas de IA generativos transparentes y participen en el proceso del Código de buenas prácticas.
- La transparencia en relación con el origen artificial de los contenidos generados o manipulados por IA es esencial. La disponibilidad de una variedad de sistemas de IA con capacidades crecientes para generar todo tipo de contenido hace que sea cada vez más difícil distinguir el contenido de IA del contenido generado por humanos y auténtico. Esto está planteando nuevos riesgos de desinformación y manipulación a escala, fraude, suplantación de identidad y engaño del consumidor.
- En este contexto, el artículo 50 de la Ley de IA establece obligaciones de transparencia para los proveedores y los implementadores de determinados sistemas de IA, incluidos los sistemas de IA generativos e interactivos y las falsificaciones profundas.
- Estas obligaciones tienen por objeto reducir los riesgos de engaño, suplantación de identidad e información errónea y fomentar la confianza y la integridad en el ecosistema de la información. Las personas sabrán cuándo están interactuando con IA o expuestos a contenido generado por IA, lo que les ayudará a tomar decisiones informadas.
- El artículo 50 de la Ley de IA abarca cuatro tipos de sistemas de IA. En primer lugar, los proveedores de sistemas de IA que interactúan con personas deben informarles de que están interactuando con un sistema de IA y no con un ser humano, a menos que esto sea obvio.
- En segundo lugar, los proveedores de contenidos generados o manipulados por IA deben facilitar la identificación y marcar dichos contenidos de manera legible por máquina y habilitar los mecanismos de detección correspondientes.
- En tercer lugar, los implementadores de sistemas de reconocimiento de emociones o de categorización biométrica deben garantizar que las personas expuestas a estos sistemas estén informadas.
- En cuarto lugar, los responsables del despliegue de sistemas de IA que generen o manipulen contenidos falsos profundos o publicaciones de texto generadas o manipuladas por IA destinadas a informar al público sobre asuntos de interés público deben informar a los usuarios sobre el origen artificial del contenido, excepto en casos definidos. Por último, la información facilitada debe estar en un formato claro y accesible.
- Las técnicas o métodos para marcar y detectar el contenido generado por IA incluyen marcas de agua, identificaciones de metadatos y métodos criptográficos para demostrar el origen y la autenticidad del contenido, métodos de registro, impresiones dactilares u otras técnicas.
- Las técnicas y métodos pertinentes deben ser suficientemente fiables, interoperables, eficaces y sólidos en la medida en que sea técnicamente viable. Los proveedores también deben tener en cuenta las especificidades y las limitaciones de los diferentes tipos de contenidos y la evolución tecnológica y del mercado pertinente en este ámbito.
- Una parte importante del trabajo que debe realizarse en el contexto del Código de buenas prácticas sobre sistemas de IA generativos transparentes será seguir identificando las técnicas y prácticas más avanzadas.
El Código de buenas prácticas sobre sistemas de IA generativa transparentes será una herramienta voluntaria para garantizar el adecuado cumplimiento de las obligaciones establecidas en el artículo 50, apartados 2 y 4, de la Ley de IA para los proveedores y los implementadores de sistemas de IA generativa. Si la Comisión lo aprueba como adecuado, proporcionará medidas claras para los responsables del despliegue y los proveedores que desarrollen o tengan previsto desarrollar sistemas de IA generativa en el ámbito de aplicación. El Código garantizará que los sistemas de IA generativa introducidos en el mercado europeo por proveedores e implementadores adherentes sean suficientemente transparentes, en consonancia con los respectivos requisitos de transparencia de la Ley de IA.
- Las medidas prácticas del Código de buenas prácticas solo cubrirán las obligaciones establecidas en el artículo 50, apartados 2 y 4, de la Ley de IA. Las directrices abarcarán el artículo 50 en su conjunto.
- Además, el Código de Prácticas se desarrollará a través de un proceso de múltiples partes interesadas y proporcionará medios técnicos de implementación.
- Las directrices que elaborará y adoptará la Comisión aclararán el ámbito de aplicación, las definiciones jurídicas pertinentes, las obligaciones de transparencia, las excepciones y las cuestiones horizontales conexas.
- Los principales destinatarios del Código son los proveedores y los implementadores de sistemas de IA generativa, incluidas las pymes, sujetos a las obligaciones. Se invita a los proveedores de técnicas de transparencia, las organizaciones de la sociedad civil, los expertos académicos y otras organizaciones o asociaciones industriales pertinentes a que apoyen el proceso de redacción. Al implicar a todas estas partes interesadas, el Código de buenas prácticas facilitará la aplicación efectiva de las respectivas obligaciones de transparencia. El Código también apoyará disposiciones prácticas para hacer accesibles los mecanismos de detección y facilitar la cooperación con otros agentes a lo largo de la cadena de valor.
- Se anima a las partes interesadas a que expresen su interés hasta el 9 de octubre para participar en el proceso de redacción. La Oficina de IA verificará la admisibilidad sobre la base de la información presentada y disponible públicamente y confirmará la participación de las partes interesadas respectivas.
- Las obligaciones de transparencia del artículo 50 de la Ley de IA complementan las normas de transparencia aplicables a los modelos de IA de uso general (artículos 53 y 55). Estos últimos se han detallado con más detalle en el Código de buenas prácticas para los modelos de IA de uso general (GPAI) y en el modelo de la Comisión para el resumen del contenido utilizado para el modelo de formación.
- En particular, mientras que el Código de buenas prácticas en materia de IAGP se centra en los modelos de IAGP y en la documentación y la información que deben facilitarse a la Oficina de IA, las autoridades nacionales competentes y los proveedores intermedios, así como en la transparencia de los datos de entrenamiento de entrada, el Código sobre sistemas de IA generativos transparentes aborda las técnicas de marcado y la transparencia de los resultados generados o manipulados por la IA hacia las personas expuestas a ellos.
- El Código sobre sistemas transparentes de IA generativa se centra en las obligaciones de transparencia a nivel del sistema, incluidos, entre otros, los sistemas de IAGP. Las técnicas de transparencia que pueden aplicar los proveedores de modelos de IAGP para facilitar las obligaciones de transparencia de los proveedores de sistemas de IA descendentes también se tendrán en cuenta en el contexto del presente Código.
- La Oficina de IA invitará a todas las partes interesadas elegibles a participar en el proceso de redacción del Código de buenas prácticas y seleccionará presidentes y vicepresidentes para los diferentes grupos de trabajo.
- A principios de noviembre tendrá lugar una sesión plenaria de apertura con todos los participantes seleccionados. Se espera que el proceso de redacción dure hasta principios de junio de 2026 a más tardar.
Si el Código es aprobado por la Comisión, los signatarios podrán basarse en él para demostrar el cumplimiento de las obligaciones. Por lo que se refiere a los proveedores y los responsables del despliegue que se adhieran al Código, la Comisión centrará sus actividades de ejecución en supervisar su adhesión al Código.
Se beneficiarán de una mayor confianza de la Comisión y de otras partes interesadas.
Related content
La Ley de IA es el primer marco jurídico en materia de IA, que aborda los riesgos de la IA y posiciona a Europa para desempeñar un papel de liderazgo a escala mundial.