Skip to main content
Shaping Europe’s digital future
Report / Study | Publicação

Orientações éticas para uma IA de confiança

Em 8 de abril de 2019, o Grupo de Peritos de Alto Nível sobre IA apresentou as «Orientações éticas para uma IA de confiança». Na sequência da publicação do primeiro projeto de orientações, em dezembro de 2018, sobre o qual foram recebidas mais de 500 observações através de uma consulta pública.

De acordo com as orientações, a IA de confiança deve ser:

(1) legal — respeito de todas as disposições legislativas e regulamentares aplicáveis

(2) ética — respeitar os princípios e valores éticos

(3) robusto — de um ponto de vista técnico, tendo simultaneamente em conta o seu ambiente social

Descarregue as orientações na sua língua:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT RO | SK | SL | SV

As Orientações apresentam um conjunto de 7 requisitos essenciais que os sistemas de IA devem cumprir para serem considerados fiáveis. Foi igualmente elaborada uma lista de avaliação específica para ajudar a verificar a aplicação de cada um desses requisitos:

  • Ação humana e supervisão: Os sistemas de IA devem capacitar os seres humanos, permitindo-lhes tomar decisões informadas e promover os seus direitos fundamentais. Ao mesmo tempo, devem ser assegurados mecanismos de supervisão adequados, que podem ser alcançados através de abordagens «homem-in-the-loop», «human-on-loop» e «human-in-control».
  • Solidez técnica e segurança: Os sistemas de IA têm de ser resilientes e seguros. Têm de ser seguros, garantindo um plano de recurso caso algo corra mal, bem como sejam exatos, fiáveis e reprodutíveis. Esta é a única forma de garantir que também os danos não intencionais possam ser minimizados e evitados.
  • Privacidade e governação dos dados: para além de garantir o pleno respeito da privacidade e da proteção de dados, devem também ser assegurados mecanismos adequados de governação dos dados, tendo em conta a qualidade e a integridade dos dados, e assegurando o acesso legítimo aos dados.
  • Transparência: os modelos empresariais de dados, sistemas e IA devem ser transparentes. Os mecanismos de rastreabilidade podem ajudar a alcançar este objetivo. Além disso, os sistemas de IA e as suas decisões devem ser explicados de forma adaptada às partes interessadas em causa. Os seres humanos têm de estar cientes de que estão a interagir com um sistema de IA e devem ser informados das capacidades e limitações do sistema.
  • Diversidade, não discriminação e equidade: Os preconceitos injustos devem ser evitados, uma vez que podem ter múltiplas implicações negativas, desde a marginalização dos grupos vulneráveis até ao agravamento dos preconceitos e da discriminação. Promovendo a diversidade, os sistemas de IA devem ser acessíveis a todos, independentemente de qualquer deficiência, e envolver as partes interessadas pertinentes ao longo de todo o seu ciclo de vida.
  • Bem-estar societal e ambiental: Os sistemas de IA devem beneficiar todos os seres humanos, incluindo as gerações futuras. Por conseguinte, deve garantir-se que são sustentáveis e respeitadoras do ambiente. Além disso, devem ter em conta o ambiente, incluindo outros seres vivos, e o seu impacto social e societal deve ser cuidadosamente ponderado. 
  • Responsabilidade: Devem ser criados mecanismos para assegurar a responsabilidade e a responsabilização em relação aos sistemas de IA e às suas consequências. A auditabilidade, que permite a avaliação de algoritmos, dados e processos de conceção, desempenha um papel fundamental nesse contexto, especialmente em aplicações críticas. Além disso, deve ser assegurada uma reparação adequada e acessível.

O GPAN IA elaborou igualmente um documento que desenvolve uma definição de inteligência artificial utilizada para efeitos das Orientações.

Descarregue a definição de IA na sua língua:

BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT RO | SK | SL | SV

 

Processo piloto

O documento apresenta igualmente uma lista de avaliação que operacionaliza os requisitos essenciais e fornece orientações para a sua aplicação na prática. A partir de 26 de junho, esta lista de avaliação foi objeto de um processo piloto, no qual todas as partes interessadas foram convidadas a testar a lista de avaliação e a fornecer reações práticas sobre a forma de a melhorar.

Foram recebidas reações através de diferentes vias:

  • Envio de um inquérito aberto ou de uma «análise quantitativa» a todos aqueles que se inscreveram no piloto
  • Entrevistas aprofundadas com várias organizações representativas para recolher reações mais pormenorizadas para diferentes setores 
  • Possibilidade contínua de carregar reações e boas práticas através da Aliança Europeia para a Inteligência Artificial

A fase piloto terminou em 1 de dezembro de 2019

Com base nas reações recebidas, o GPAN da IA apresentou a lista final de avaliação para uma IA de confiança (ALTAI) em julho de 2020. O Altai é uma ferramenta prática que traduz as orientações éticas numa lista de verificação acessível e dinâmica (autoavaliação). A lista de verificação pode ser utilizada pelos criadores e responsáveis pela implantação de IA que pretendam aplicar na prática os requisitos essenciais. Esta nova lista está disponível sob a forma de protótipo de ferramenta Web e em formato PDF.