Skip to main content
Shaping Europe’s digital future

Ato relativo à IA

O Regulamento Inteligência Artificial é o primeiro quadro jurídico em matéria de IA, que aborda os riscos da IA e posiciona a Europa para desempenhar um papel de liderança a nível mundial.

    um homem e uma mulher a trabalhar num ecrã de alta tecnologia

© gorodenkoff - iStock Getty Images Plus

O Regulamento Inteligência Artificial visa proporcionar aos criadores e implantadores de IA requisitos e obrigações claros em matéria de utilizações específicas da IA. Ao mesmo tempo, o regulamento visa reduzir os encargos administrativos e financeiros para as empresas, em especial para as pequenas e médias empresas (PME).

O Regulamento Inteligência Artificial faz parte de um pacote mais vasto de medidas políticas para apoiar o desenvolvimento de uma IA fiável, que inclui também o pacote de inovação no domínio da IA e o plano coordenado para a IA. Em conjunto, estas medidas garantirão a segurança e os direitos fundamentais das pessoas e das empresas no que diz respeito à IA. Reforçarão igualmente a aceitação, o investimento e a inovação na IA em toda a UE.

A Lei da IA é o primeiro quadro jurídico abrangente em matéria de IA a nível mundial. O objetivo das novas regras é promover uma IA fiável dentro e fora da Europa, assegurando que os sistemas de IA respeitam os direitos fundamentais, a segurança e os princípios éticos e abordando os riscos de modelos de IA muito poderosos e com impacto.

Por que precisamos de regras em matéria de IA?

O Regulamento Inteligência Artificial garante que os europeus podem confiar no que a IA tem para oferecer. Embora a maioria dos sistemas de IA se limite a nenhum risco e possa contribuir para a resolução de muitos desafios societais, certos sistemas de IA criam riscos que temos de enfrentar para evitar resultados indesejáveis.

Por exemplo, muitas vezes não é possível descobrir por que razão um sistema de IA tomou uma decisão ou previsão e tomou uma determinada ação. Assim, pode tornar-se difícil avaliar se alguém foi injustamente prejudicado, como numa decisão de contratação ou num pedido de um regime de prestações públicas.

Embora a legislação em vigor proporcione alguma proteção, é insuficiente para dar resposta aos desafios específicos que os sistemas de IA podem trazer.

As regras propostas:

  • abordar os riscos especificamente criados pelas aplicações de IA;
  • proibir as práticas de IA que apresentem riscos inaceitáveis;
  • determinar uma lista de aplicações de alto risco;
  • estabelecer requisitos claros para os sistemas de IA para aplicações de risco elevado;
  • definir obrigações específicas para os responsáveis pela implantação e os fornecedores de aplicações de IA de risco elevado;
  • exigir uma avaliação da conformidade antes de um determinado sistema de IA ser colocado em serviço ou colocado no mercado;
  • aplicar a legislação após a colocação de um determinado sistema de IA no mercado;
  • criar uma estrutura de governação a nível europeu e nacional.

Uma abordagem baseada no risco

O quadro regulamentar define quatro níveis de risco para os sistemas de IA:

pirâmide que mostra os quatro níveis de risco: Riscos inaceitáveis; De alto risco; risco limitado, mínimo ou nenhum risco

 

Todos os sistemas de IA considerados uma ameaça clara à segurança, aos meios de subsistência e aos direitos das pessoas serão proibidos, desde a pontuação social pelos governos até aos brinquedos que utilizam assistência vocal que incentiva comportamentos perigosos.

Risco elevado

Os sistemas de IA identificados como de risco elevado incluem a tecnologia de IA utilizada em:

  • infraestruturas críticas (por exemplo, transportes), suscetíveis de pôr em risco a vida e a saúde dos cidadãos;
  • formação educativa ou profissional, que pode determinar o acesso à educação e ao curso profissional da vida de alguém (por exemplo, pontuação dos exames);
  • componentes de segurança dos produtos (por exemplo, aplicação de IA em cirurgia assistida por robôs);
  • emprego, gestão de trabalhadores e acesso ao trabalho por conta própria (por exemplo, software de seleção de CV para procedimentos de recrutamento);
  • serviços públicos e privados essenciais (por exemplo, pontuação de crédito que nega aos cidadãos a oportunidade de obter um empréstimo);
  • aplicação da lei que possa interferir com os direitos fundamentais das pessoas (por exemplo, avaliação da fiabilidade dos elementos de prova);
  • gestão da migração, do asilo e do controlo das fronteiras (por exemplo, análise automatizada dos pedidos de visto);
  • administração da justiça e processos democráticos (por exemplo, soluções de IA para procurar decisões judiciais).

Os sistemas de IA de risco elevado estarão sujeitos a obrigações rigorosas antes de poderem ser colocados no mercado:

  • sistemas adequados de avaliação e atenuação dos riscos;
  • elevada qualidade dos conjuntos de dados que alimentam o sistema para minimizar os riscos e os resultados discriminatórios;
  • exploração da atividade para assegurar a rastreabilidade dos resultados;
  • documentação pormenorizada que forneça todas as informações necessárias sobre o sistema e a sua finalidade para que as autoridades possam avaliar a sua conformidade;
  • informação clara e adequada ao responsável pela implantação;
  • medidas de supervisão humana adequadas para minimizar os riscos;
  • alto nível de robustez, segurança e precisão.

Todos os sistemas de identificação biométrica à distância são considerados de alto risco e sujeitos a requisitos rigorosos. A utilização da identificação biométrica à distância em espaços acessíveis ao público para fins de aplicação da lei é, em princípio, proibida.

As exceções restritas são estritamente definidas e regulamentadas, como, por exemplo, quando necessário para procurar uma criança desaparecida, para prevenir uma ameaça terrorista específica e iminente ou para detetar, localizar, identificar ou processar um autor ou suspeito de uma infração penal grave.

Estes usos estão sujeitos à autorização de um órgão judicial ou de outro organismo independente e a limites temporais adequados, ao alcance geográfico e às bases de dados consultadas.

Risco limitado

O risco limitadorefere-se aos riscos associados à falta de transparência na utilização da IA. O Regulamento Inteligência Artificial introduz obrigações específicas de transparência para garantir que os seres humanos são informados sempre que necessário, promovendo a confiança. Por exemplo, ao utilizar sistemas de IA, como os chatbots, os seres humanos devem ser informados de que estão a interagir com uma máquina, para que possam tomar uma decisão informada de continuar ou recuar. Os fornecedores terão também de assegurar que os conteúdos gerados pela IA sejam identificáveis. Além disso, o texto gerado pela IA publicado com o objetivo de informar o público sobre questões de interesse público deve ser rotulado como produzido artificialmente. Isto também se aplica aos conteúdos de áudio e vídeo que constituem falsificações profundas.

Mínimo ou nenhum risco

O Regulamento Inteligência Artificial permite a livre utilização de IA de risco mínimo. Isto inclui aplicações como jogos de vídeo baseados em IA ou filtros de spam. A grande maioria dos sistemas de IA atualmente utilizados na UE insere-se nesta categoria.

Como é que tudo funciona na prática para os fornecedores de sistemas de IA de risco elevado?

processo passo a passo para a declaração de conformidade
How does it all work in practice for providers of high risk AI systems?

Quando um sistema de IA está no mercado, as autoridades são responsáveis pela fiscalização do mercado, os responsáveis pela implantação asseguram a supervisão e monitorização humanas e os fornecedores dispõem de um sistema de monitorização pós-comercialização. Os provedores e os implantadores também relatam incidentes graves e mau funcionamento.

Uma solução para a utilização fiável de modelos de IA de grandedimensão

Cada vez mais, os modelos de IA de uso geral estão a tornar-se componentes dos sistemas de IA. Estes modelos podem executar e adaptar inúmeras tarefas diferentes.

Embora os modelos de IA de uso geral possam permitir soluções de IA melhores e mais poderosas, é difícil supervisionar todas as capacidades.

Nesse contexto, o Regulamento Inteligência Artificial introduz obrigações de transparência para todos os modelos de IA de finalidade geral, a fim de permitir uma melhor compreensão destes modelos e obrigações adicionais de gestão de riscos para modelos muito capazes e com impacto. Estas obrigações adicionais incluem a autoavaliação e a atenuação dos riscos sistémicos, a comunicação de incidentes graves, a realização de avaliações de testes e modelos, bem como requisitos de cibersegurança.

Legislação preparada para o futuro

Uma vez que a IA é uma tecnologia em rápida evolução, a proposta tem uma abordagem orientada para o futuro, permitindo que as regras se adaptem às mudanças tecnológicas. As aplicações de IA devem continuar a ser fiáveis mesmo depois de terem sido colocadas no mercado. Isto exige uma gestão contínua da qualidade e dos riscos por parte dos fornecedores.

Execução e execução

O Gabinete Europeu da Inteligência Artificial, criado em fevereiro de 2024 na Comissão, supervisiona o cumprimento e a aplicação do Regulamento Inteligência Artificial com os Estados-Membros. Visa criar um ambiente em que as tecnologias de IA respeitem a dignidade humana, os direitos e a confiança. Promove igualmente a colaboração, a inovação e a investigação no domínio da IA entre as várias partes interessadas. Além disso, participa no diálogo internacional e na cooperação sobre questões relacionadas com a IA, reconhecendo a necessidade de um alinhamento mundial da governação da IA. Através destes esforços, o Gabinete Europeu de Inteligência Artificial esforça-se por posicionar a Europa como líder no desenvolvimento ético e sustentável das tecnologias de IA.

Próximas etapas

Em dezembro de 2023, o Parlamento Europeu e o Conselho da UE chegaram a um acordo político sobre o Regulamento Inteligência Artificial. O texto está em vias de ser formalmente adotado e traduzido. O Regulamento IA entrará em vigor 20 dias após a sua publicação no Jornal Oficial e será plenamente aplicável dois anos mais tarde, com algumas exceções: as proibições entrarão em vigor após seis meses, as regras de governação e as obrigações relativas aos modelos de IA de finalidade geral passam a ser aplicáveis após 12 meses e as regras aplicáveis aos sistemas de IA — incorporadas em produtos regulamentados — serão aplicáveis após 36 meses. A fim de facilitar a transição para o novo quadro regulamentar, a Comissão lançou o Pacto para a IA, uma iniciativa voluntária que procura apoiar a futura aplicação e convida os criadores de IA da Europa e de outros países a cumprirem com antecedência as principais obrigações do Regulamento Inteligência Artificial.

Últimas notícias

A UE e a República da Coreia reafirmam a sua parceria para uma transformação digital inclusiva e resiliente

A UE e a República da Coreia realizaram hoje o segundo Conselho de Parceria Digital em Bruxelas. O Conselho foi copresidido pelo Comissário responsável pelo Mercado Interno, Thierry Breton, e pelo Ministro coreano da Ciência e das Tecnologias da Informação e da Comunicação, Dr. Lee Jong-Ho.

PRESS RELEASE |
Comissão lança convites à apresentação de propostas para investir mais de 176 milhões de EUR em capacidades e tecnologias digitais

A Comissão Europeia lançou um novo conjunto de convites à apresentação de propostas no âmbito dos programas de trabalho 2023-2024 do Programa Europa Digital, a fim de reforçar as capacidades digitais em toda a UE. Estes convites estão abertos às empresas, às administrações públicas e a outras entidades dos Estados-Membros da UE, dos países da EFTA/EEE e dos países associados. O orçamento para este conjunto de convites à apresentação de propostas é superior a 176 milhões de euros.

PRESS RELEASE |
Commission makes first payment of €202 million to Finland under the Recovery Facility

The European Commission opened a new set of calls for proposals under the 2023-2024 Work Programmes of the Digital Europe Programme to strengthen digital capacities across EU. These calls are open to businesses, public administrations, and other entities from the EU Member States, EFTA/EEA countries, and associated countries. The budget for this set of calls is over €176 million.

Conteúdo relacionado

Visão geral

Abordagem europeia da inteligência artificial

A abordagem da UE em matéria de inteligência artificial centra-se na excelência e na confiança, com o objetivo de reforçar a investigação e a capacidade industrial, garantindo simultaneamente a segurança e os direitos fundamentais.

Em pormenor

Pacto para a IA

O Pacto para a IA incentivará e apoiará as empresas no planeamento futuro das medidas previstas no Regulamento Inteligência Artificial.

Ver também

Plano coordenado para a inteligência artificial

O Plano Coordenado para a Inteligência Artificial visa acelerar o investimento na IA, aplicar estratégias e programas de IA e alinhar a política de IA para prevenir a fragmentação na Europa.

A Aliança Europeia da IA

A Aliança Europeia da IA é uma iniciativa da Comissão Europeia para estabelecer um diálogo político aberto sobre a inteligência artificial. Desde o seu lançamento em 2018, a Aliança para a IA envolveu cerca de 6000 partes interessadas através de eventos regulares, consultas...