Skip to main content
Shaping Europe’s digital future

Proposta de quadro regulamentar em matéria de inteligência artificial

A Comissão propõe o primeiro quadro jurídico em matéria de IA, que aborda os riscos da IA e coloca a Europa a desempenhar um papel de liderança a nível mundial.

    um homem e uma rapariga trabalhando em uma ecrã de alta tecnologia

© gorodenkoff - iStock Getty Images Plus

A proposta regulamentar visa proporcionar aos criadores de IA, aos implantadores e aos utilizadores requisitos e obrigações claros no que diz respeito às utilizações específicas da IA. Ao mesmo tempo, a proposta visa reduzir os encargos administrativos e financeiros para as empresas, em especial para as pequenas e médias empresas (PME).

A proposta faz parte de um pacote mais vasto de IA, que inclui também o plano coordenado atualizado em matéria de IA. Em conjunto, o quadro regulamentar e o plano coordenado garantirão a segurança e os direitos fundamentais das pessoas e das empresas no que respeita à IA. E reforçarão a aceitação, o investimento e a inovação na IA em toda a UE.

Por que precisamos de regras em matéria de IA?

A proposta de regulamento relativo à IA garante que os europeus podem confiar no que a IA tem para oferecer. Embora a maioria dos sistemas de IA não represente qualquer risco e possa contribuir para a resolução de muitos desafios societais, certos sistemas de IA criam riscos que temos de enfrentar para evitar resultados indesejáveis.

Por exemplo, muitas vezes não é possível descobrir por que motivo um sistema de IA tomou uma decisão ou previsão e tomou uma ação específica. Assim, pode tornar-se difícil avaliar se alguém foi injustamente prejudicado, como numa decisão de contratação ou num pedido de concessão de um regime de prestações públicas.

Embora a legislação em vigor proporcione alguma proteção, é insuficiente para dar resposta aos desafios específicos que os sistemas de IA podem colocar.

As regras propostas:

  • abordar os riscos especificamente criados pelas aplicações de IA;
  • propor uma lista de aplicações de alto risco;
  • estabelecer requisitos claros para os sistemas de IA para aplicações de alto risco;
  • definir obrigações específicas para os utilizadores de IA e os fornecedores de aplicações de alto risco;
  • propor uma avaliação da conformidade antes de o sistema de IA ser colocado em serviço ou colocado no mercado;
  • propor a aplicação da legislação após a colocação no mercado desse sistema de IA;
  • propor uma estrutura de governação a nível europeu e nacional.

Uma abordagem baseada no risco

pirâmide mostrando os quatro níveis de risco: Risco inaceitável; Alto risco; risco limitado, mínimo ou nenhum risco

O quadro regulamentar define quatro níveis de risco na IA:

  • Risco inaceitável
  • Risco elevado
  • Risco limitado
  • Risco mínimo ou nulo

Risco inaceitável

Todos os sistemas de IA considerados uma clara ameaça à segurança, aos meios de subsistência e aos direitos das pessoas serão proibidos, desde a pontuação social pelos governos até aos brinquedos que utilizam a assistência por voz que incentiva comportamentos perigosos.

Risco elevado

Os sistemas de IA identificados como de alto risco incluem a tecnologia de IA utilizada em:

  • infraestruturas críticas (por exemplo, transportes), suscetíveis de pôr em risco a vida e a saúde dos cidadãos;
  • formação educativa ou profissional, que pode determinar o acesso à educação e ao curso profissional da vida de alguém (por exemplo, pontuação de exames);
  • componentes de segurança dos produtos (por exemplo, aplicação de IA em cirurgia assistida por robôs);
  • emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria (por exemplo, software de classificação de CV para procedimentos de recrutamento);
  • serviços públicos e privados essenciais (por exemplo, pontuação de crédito que nega aos cidadãos a oportunidade de obterem um empréstimo);
  • aplicação da lei que pode interferir com os direitos fundamentais das pessoas (por exemplo, avaliação da fiabilidade dos elementos de prova);
  • gestão da migração, do asilo e do controlo das fronteiras (por exemplo, verificação da autenticidade dos documentos de viagem);
  • administração da justiça e processos democráticos (por exemplo, aplicação da lei a um conjunto concreto de factos).

Os sistemas de IA de alto risco estarão sujeitos a obrigações rigorosas antes de poderem ser colocados no mercado:

  • sistemas adequados de avaliação e atenuação dos riscos;
  • elevada qualidade dos conjuntos de dados que alimentam o sistema para minimizar os riscos e os resultados discriminatórios;
  • registo da atividade para garantir a rastreabilidade dos resultados;
  • documentação pormenorizada que forneça todas as informações necessárias sobre o sistema e a sua finalidade para as autoridades avaliarem a sua conformidade;
  • informação clara e adequada ao utilizador;
  • medidas de supervisão humana adequadas para minimizar os riscos;
  • alto nível de robustez, segurança e precisão.

Todos os sistemas de identificação biométrica à distância são considerados de alto risco e sujeitos a requisitos rigorosos. A utilização da identificação biométrica à distância em espaços acessíveis ao público para efeitos de aplicação da lei é, em princípio, proibida.

As exceções restritas são estritamente definidas e regulamentadas, por exemplo, quando necessário para procurar uma criança desaparecida, para prevenir uma ameaça terrorista específica e iminente ou para detetar, localizar, identificar ou processar um autor ou suspeito de uma infração penal grave.

Essa utilização está sujeita a autorização por um órgão judicial ou outro organismo independente e a limites adequados no tempo, no alcance geográfico e nas bases de dados pesquisadas.

Risco limitado

O risco limitado refere-se aos sistemas de IA com obrigações de transparência específicas. Ao usar sistemas de IA, como chatbots, os utentes devem estar cientes de que estão interagindo com uma máquina para que possam tomar uma decisão informada de continuar ou recuar.

Risco mínimo ou nulo

A proposta permite a utilização gratuita de IA de risco mínimo. Isto inclui aplicações como jogos de vídeo ativados por IA ou filtros de spam. A grande maioria dos sistemas de IA atualmente utilizados na UE insere-se nesta categoria.

processo passo a passo para a declaração de conformidade
How does it all work in practice for providers of high risk AI systems?

Uma vez que um sistema de IA esteja no mercado, as autoridades são responsáveis pela fiscalização do mercado, os utilizadores asseguram a supervisão e a monitorização humanas e os fornecedores dispõem de um sistema de monitorização pós-comercialização. Os fornecedores e os utilizadores também comunicarão incidentes graves e avarias.

Legislação orientada para o futuro

Uma vez que a IA é uma tecnologia em rápida evolução, a proposta tem uma abordagem orientada para o futuro, permitindo que as regras se adaptem à evolução tecnológica. As aplicações de IA devem continuar a ser fiáveis, mesmo após a sua colocação no mercado. Tal exige uma gestão contínua da qualidade e dos riscos por parte dos prestadores.

Próximos passos

Na sequência da proposta da Comissão de abril de 2021, o regulamento poderá entrar em vigor no final de 2022/início de 2023 num período transitório. Neste período, as normas seriam mandatadas e desenvolvidas e as estruturas de governação criadas estariam operacionais. A segunda metade de 2024 é a primeira vez que o regulamento pode ser aplicável aos operadores com as normas prontas e as primeiras avaliações de conformidade realizadas.

Como apresentação regulamentar adicional do Livro Branco sobre a IA, foi adotada em 28 de setembro de 2022 uma proposta de diretiva relativa à responsabilidade em matéria de IA.

Últimas notícias

Related Content

Big Picture

Uma abordagem europeia da inteligência artificial

A abordagem da UE em matéria de inteligência artificial centra-se na excelência e na confiança, com o objetivo de reforçar a investigação e a capacidade industrial, garantindo simultaneamente a segurança e os direitos fundamentais.

See Also

Plano coordenado de inteligência artificial

O Plano Coordenado de Inteligência Artificial visa acelerar o investimento na IA, atuar em estratégias e programas de IA e alinhar a política de IA para evitar a fragmentação na Europa.

Aliança Europeia para a IA

The European AI Alliance is an initiative of the European Commission to establish an open policy dialogue on Artificial Intelligence. Since its launch in 2018, the AI Alliance has engaged around 6000 stakeholders through regular events, public consultations and online forum...