De acordo com as orientações, a IA de confiança deve ser:
(1) legal — respeito de todas as disposições legislativas e regulamentares aplicáveis
(2) ética — respeitar os princípios e valores éticos
(3) robusto — de um ponto de vista técnico, tendo simultaneamente em conta o seu ambiente social
Descarregue as orientações na sua língua:
BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT RO | SK | SL | SV
As Orientações apresentam um conjunto de 7 requisitos essenciais que os sistemas de IA devem cumprir para serem considerados fiáveis. Foi igualmente elaborada uma lista de avaliação específica para ajudar a verificar a aplicação de cada um desses requisitos:
- Ação humana e supervisão: Os sistemas de IA devem capacitar os seres humanos, permitindo-lhes tomar decisões informadas e promover os seus direitos fundamentais. Ao mesmo tempo, devem ser assegurados mecanismos de supervisão adequados, que podem ser alcançados através de abordagens «homem-in-the-loop», «human-on-loop» e «human-in-control».
- Solidez técnica e segurança: Os sistemas de IA têm de ser resilientes e seguros. Têm de ser seguros, garantindo um plano de recurso caso algo corra mal, bem como sejam exatos, fiáveis e reprodutíveis. Esta é a única forma de garantir que também os danos não intencionais possam ser minimizados e evitados.
- Privacidade e governação dos dados: para além de garantir o pleno respeito da privacidade e da proteção de dados, devem também ser assegurados mecanismos adequados de governação dos dados, tendo em conta a qualidade e a integridade dos dados, e assegurando o acesso legítimo aos dados.
- Transparência: os modelos empresariais de dados, sistemas e IA devem ser transparentes. Os mecanismos de rastreabilidade podem ajudar a alcançar este objetivo. Além disso, os sistemas de IA e as suas decisões devem ser explicados de forma adaptada às partes interessadas em causa. Os seres humanos têm de estar cientes de que estão a interagir com um sistema de IA e devem ser informados das capacidades e limitações do sistema.
- Diversidade, não discriminação e equidade: Os preconceitos injustos devem ser evitados, uma vez que podem ter múltiplas implicações negativas, desde a marginalização dos grupos vulneráveis até ao agravamento dos preconceitos e da discriminação. Promovendo a diversidade, os sistemas de IA devem ser acessíveis a todos, independentemente de qualquer deficiência, e envolver as partes interessadas pertinentes ao longo de todo o seu ciclo de vida.
- Bem-estar societal e ambiental: Os sistemas de IA devem beneficiar todos os seres humanos, incluindo as gerações futuras. Por conseguinte, deve garantir-se que são sustentáveis e respeitadoras do ambiente. Além disso, devem ter em conta o ambiente, incluindo outros seres vivos, e o seu impacto social e societal deve ser cuidadosamente ponderado.
- Responsabilidade: Devem ser criados mecanismos para assegurar a responsabilidade e a responsabilização em relação aos sistemas de IA e às suas consequências. A auditabilidade, que permite a avaliação de algoritmos, dados e processos de conceção, desempenha um papel fundamental nesse contexto, especialmente em aplicações críticas. Além disso, deve ser assegurada uma reparação adequada e acessível.
O GPAN IA elaborou igualmente um documento que desenvolve uma definição de inteligência artificial utilizada para efeitos das Orientações.
Descarregue a definição de IA na sua língua:
BG | CS | DE | DA | EL | EN | ES | ET | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT RO | SK | SL | SV
Processo piloto
O documento apresenta igualmente uma lista de avaliação que operacionaliza os requisitos essenciais e fornece orientações para a sua aplicação na prática. A partir de 26 de junho, esta lista de avaliação foi objeto de um processo piloto, no qual todas as partes interessadas foram convidadas a testar a lista de avaliação e a fornecer reações práticas sobre a forma de a melhorar.
Foram recebidas reações através de diferentes vias:
- Envio de um inquérito aberto ou de uma «análise quantitativa» a todos aqueles que se inscreveram no piloto
- Entrevistas aprofundadas com várias organizações representativas para recolher reações mais pormenorizadas para diferentes setores
- Possibilidade contínua de carregar reações e boas práticas através da Aliança Europeia para a Inteligência Artificial
A fase piloto terminou em 1 de dezembro de 2019
Com base nas reações recebidas, o GPAN da IA apresentou a lista final de avaliação para uma IA de confiança (ALTAI) em julho de 2020. O Altai é uma ferramenta prática que traduz as orientações éticas numa lista de verificação acessível e dinâmica (autoavaliação). A lista de verificação pode ser utilizada pelos criadores e responsáveis pela implantação de IA que pretendam aplicar na prática os requisitos essenciais. Esta nova lista está disponível sob a forma de protótipo de ferramenta Web e em formato PDF.