Skip to main content
Shaping Europe’s digital future

Código de Prática sobre marcação e rotulagem de conteúdos gerados por IA

O presente código de conduta visa apoiar o cumprimento das obrigações de transparência do Regulamento Inteligência Artificial relacionadas com a marcação e a rotulagem de conteúdos gerados por IA.

Marcação e rotulagem de conteúdos gerados por IA

As obrigações previstas no artigo 50.o do Regulamento Inteligência Artificial (obrigações de transparência para os fornecedores e responsáveis pela implantação de sistemas de IA generativa) visam assegurar a transparência dos conteúdos gerados ou manipulados por IA, como as falsificações profundas. O artigo aborda os riscos de engano e manipulação, promovendo a integridade do ecossistema de informação. Estas obrigações de transparência complementarão outras regras, como as aplicáveis aos sistemas de IA de risco elevado ou aos modelos de IA de finalidade geral.

Para ajudar a cumprir estas obrigações de transparência, o Serviço IA deu início ao processo de elaboração de um código de conduta sobre a transparência dos conteúdos gerados pela IA. O Código será elaborado por peritos independentes nomeados pelo Serviço IA num processo inclusivo. As partes interessadas elegíveis contribuirão para a elaboração do Código. Se aprovado pela Comissão, o código final servirá de instrumento voluntário para os fornecedores e responsáveis pela implantação de sistemas de IA generativa demonstrarem o cumprimento das respetivas obrigações nos termos do artigo 50.o, n.os 2 e 4, do Regulamento Inteligência Artificial. Estas obrigações dizem respeito à marcação e deteção de conteúdos gerados pela IA e à rotulagem de falsificações profundas e de determinadas publicações geradas pela IA.

Âmbito dos grupos de trabalho

A elaboração do código está centrada em dois grupos de trabalho, seguindo a estrutura das obrigações de transparência para os conteúdos gerados pela IA previstas no artigo 50.o.

Grupo de trabalho 1: Prestadores

Centra-se nas obrigações, exigindo que os fornecedores de sistemas de IA generativa assegurem:

  • As saídas dos sistemas de IA (áudio, imagem, vídeo, texto) são marcadas num formato legível por máquina e detetáveis como geradas ou manipuladas artificialmente.
  • As soluções técnicas utilizadas são eficazes, interoperáveis, robustas e fiáveis, na medida em que tal seja tecnicamente viável. Estes devem ter em conta as especificidades e limitações dos vários tipos de conteúdos, os custos de aplicação e o estado da técnica geralmente reconhecido, tal como pode ser refletido nas normas técnicas pertinentes.

Grupo de trabalho 2: Empregadores

Centra-se nas obrigações, exigindo que os responsáveis pela implantação de sistemas de IA generativa divulguem:

  • Conteúdo que é artificialmente gerado ou manipulado, constituindo uma falsificação profunda (imagem, áudio ou vídeo que se assemelha a pessoas, objetos, locais, entidades ou eventos existentes e que, falsamente, pareceria a uma pessoa autêntica ou verdadeira).
  • Publicações de texto geradas/manipuladas por IA que informem o público sobre questões de interesse público, a menos que a publicação tenha sido objeto de um processo de revisão humana e esteja sujeita a responsabilidade editorial.

Ambos os grupos terão igualmente em conta questões transversais, incluindo requisitos horizontais para as informações a fornecer às pessoas singulares nos termos do artigo 50.o, n.o 5, e procurarão promover a cooperação entre os intervenientes pertinentes em toda a cadeia de valor, a fim de alcançar os objetivos do Regulamento Inteligência Artificial em matéria de marcação e rotulagem de conteúdos gerados por IA.

Cada grupo de trabalho será liderado por presidentes e vice-presidentes independentes, que deverão fornecer liderança e orientação estratégicas, assegurando que os debates se mantenham centrados e produtivos. Pode descarregar a lista completa dos participantes dos grupos de trabalho 1&2(PDF).

Processo de redação

A elaboração do Código envolve partes interessadas elegíveis que responderam a um convite público lançado pelo Serviço IA. Dentro deste grupo estão fornecedores de sistemas de IA generativa específicos, criadores de técnicas de marcação e deteção, associações de responsáveis pela implantação de sistemas de IA generativa, organizações da sociedade civil, peritos académicos e organizações especializadas com conhecimentos especializados em transparência e plataformas em linha de muito grande dimensão.

Na sua qualidade de facilitador, o Serviço IA convidou igualmente observadores internacionais e europeus a aderirem à elaboração do Código de Conduta. Estas organizações não cumpriam os critérios de elegibilidade do convite à apresentação de propostas, mas podem ainda assim contribuir com conhecimentos especializados valiosos e apresentar contributos escritos. Todos os participantes e observadores serão convidados a participar em sessões plenárias, reuniões de grupos de trabalho e ateliês temáticos dedicados ao debate dos aspetos técnicos do Código.

O processo de redação terá em conta:

  • Comentários da consulta multilateral sobre os requisitos de transparência para determinados sistemas de IA
  • Estudos de peritos encomendados pelo Serviço IA e contributos das partes interessadas elegíveis que participam na elaboração do Código de Conduta

Espera-se que o exercício completo dure sete meses. Este calendário dá tempo suficiente aos fornecedores e aos responsáveis pela implantação para se prepararem para o cumprimento antes de as regras entrarem em vigor em agosto de 2026. As obrigações de transparência previstas no artigo 50.o do Regulamento Inteligência Artificial complementarão outras regras, como as aplicáveis aos sistemas de IA de risco elevado ou aos modelos de IA de finalidade geral.

A Comissão elaborará, em paralelo, orientações para clarificar o âmbito das obrigações jurídicas e abordar aspetos não abrangidos pelo Código.

Cronologia

As reuniões do grupo de trabalho e os seminários com participantes, presidentes e vice-presidentes terão lugar entre novembro de 2025 e maio de 2026.

As datas a seguir indicadas são indicativas e poderão ter de ser confirmadas (a confirmar).

Conteúdo relacionado

Visão geral

A abordagem da UE em matéria de inteligência artificial promove a excelência e a confiança, reforçando a investigação e a capacidade industrial, garantindo simultaneamente a segurança e os direitos fundamentais.