Definições do artigo 4.o e do Regulamento Inteligência Artificial
Os fornecedores e responsáveis pela implantação de sistemas de IA devem tomar medidas para assegurar um nível suficiente de literacia em IA do seu pessoal e de outras pessoas que lidam com o funcionamento e a utilização de sistemas de IA em seu nome. Devem fazê-lo tendo em conta os seus conhecimentos técnicos, experiência, educação e formação do pessoal e de outras pessoas, bem como o contexto em que os sistemas de IA devem ser utilizados e as pessoas em que os sistemas de IA devem ser utilizados.
O conceito de literacia em IA referido no artigo 4.o do Regulamento Inteligência Artificial baseia-se na definição do termo constante do artigo 3.o, n.o 56, do Regulamento Inteligência Artificial, nos termos do qual: «Literacia em IA», as competências, os conhecimentos e a compreensão que permitem aos fornecedores, aos responsáveis pela implantação e às pessoas afetadas, tendo em conta os respetivos direitos e obrigações no contexto do presente regulamento, fazer uma implantação informada dos sistemas de IA, bem como sensibilizar para as oportunidades e os riscos da IA e para os possíveis danos que esta pode causar.
O artigo 4.o do Regulamento Inteligência Artificial é uma disposição fundamental para assegurar que todos os fornecedores e responsáveis pela implantação de sistemas de IA dotam o seu pessoal das competências, dos conhecimentos e da compreensão adequados do(s) sistema(s) fornecido(s) ou implantado(s). Tal diz respeito a qualquer pessoa na organização que lide diretamente com um sistema de IA e reforça as disposições em matéria de transparência (artigo 13.o do Regulamento Inteligência Artificial) e supervisão humana (artigo 14.o do Regulamento Inteligência Artificial) incluídas no regulamento. Ao mesmo tempo, o artigo 4.o contribui indiretamente para a proteção das pessoas afetadas, uma vez que assegura uma aplicação eficaz das regras do Regulamento Inteligência Artificial.
«Pessoas que lidam com o funcionamento e a utilização de sistemas de IA em nome de fornecedores/implantadores» significa que estes não são trabalhadores, mas sim pessoas que, de um modo geral, são da competência organizacional. Pode ser, por exemplo, um contratante, um prestador de serviços, um cliente.
O artigo 4.o do Regulamento Inteligência Artificial não implica a obrigação de medir o conhecimento dos trabalhadores sobre a IA. No entanto, afirma que os fornecedores e responsáveis pela implantação da IA devem assegurar um nível suficiente de literacia em IA, tendo em conta os conhecimentos técnicos, a experiência, a educação e a formação dos trabalhadores.
Sim, o Regulamento Inteligência Artificial estabelece uma distinção entre modelos de IA (modelos GPAI), sistemas de IA, incluindo sistemas GPAI, sistemas proibidos de alto risco. Para mais informações, consultar também as orientações sobre a definição de sistema de IA, publicadas pela Comissão em 6 de fevereiro para ajudar os fornecedores e outras pessoas pertinentes a determinar se um sistema de software constitui um sistema de IA e facilitar a aplicação efetiva das regras. Estas orientações, que não são vinculativas e foram concebidas para evoluir ao longo do tempo, explicam a aplicação prática do conceito jurídico, tal como consagrado no Regulamento Inteligência Artificial. As orientações sobre a definição de sistemas de IA foram publicadas para além das orientações sobre práticas proibidas de inteligência artificial (IA), tal como definidas no Regulamento Inteligência Artificial.
De momento, as informações sobre as atividades da Comissão relacionadas com o artigo 4.o do Regulamento Inteligência Artificial podem ser consultadas na página Web do Pacto para a IA,incluindo a gravação do webinário que teve lugar em 20 de fevereiro e o repositório vivo sobre literacia em IA. Está em preparação uma página Web específica sobre literacia e competências no domínio da IA.
Conformidade com o artigo 4.o
O Serviço para a IA não imporá requisitos rigorosos no que diz respeito ao artigo 4.o do Regulamento Inteligência Artificial e ao seu «nível suficiente de literacia em IA». Pelo contrário, considera necessário um certo grau de flexibilidade, tendo em conta o amplo tema da literacia em IA e a rápida evolução da tecnologia que é a IA. No entanto, no mínimo, para cumprir o artigo 4.o do Regulamento Inteligência Artificial, os fornecedores e responsáveis pela implantação de sistemas de IA devem:
a) Assegurar uma compreensão geral da IA na sua organização: O que é a IA? Como funciona? Que IA é utilizada na nossa organização? Quais são as oportunidades e os perigos?
b) Considerar o papel da sua organização (fornecedor ou responsável pela implantação de sistemas de IA): A minha organização está a desenvolver sistemas de IA ou apenas a utilizar sistemas de IA desenvolvidos por outra organização?
c) Considerar o risco dos sistemas de IA fornecidos ou implantados: O que os funcionários precisam saber ao lidar com esse sistema de IA? Quais são os riscos de que precisam estar cientes e de que precisam estar cientes da mitigação?
d) Construir concretamente as suas ações de literacia em IA com base na análise anterior, tendo em conta:
- Diferenças em termos de conhecimentos técnicos, experiência, educação e formação do pessoal e de outras pessoas – Quanto é que os trabalhadores/pessoas sabem sobre a IA e os sistemas da organização que utilizam? O que mais deviam saber?
- bem como o contexto em que os sistemas de IA devem ser utilizados e as pessoas em quem os sistemas de IA devem ser utilizados — Em que setor e para que finalidade/serviço o sistema de IA está a ser utilizado?
As considerações a, b, c e d incluem aspetos jurídicos e éticos. Por conseguinte, são incentivadas as ligações ao Regulamento Inteligência Artificial da UE (ou seja, a compreensão do Regulamento Inteligência Artificial) e aos princípios de ética e governação.
Tal como referido na resposta à pergunta anterior, para cumprir o artigo 4.o do Regulamento Inteligência Artificial, as organizações devem ter em conta o seu papel (fornecedores ou responsáveis pela implantação de sistemas de IA), bem como os riscos associados aos sistemas de IA que fornecem e/ou implantam. De acordo com isto, as organizações devem adaptar a sua abordagem de literacia em IA. Por exemplo, se os sistemas de IA da organização forem de risco elevado, de acordo com o capítulo III do Regulamento Inteligência Artificial, poderão ser pertinentes medidas adicionais para assegurar que os trabalhadores estão cientes da forma de lidar com os sistemas de IA em causa e de evitar e/ou atenuar os seus riscos.
Tal depende das respostas da organização às considerações constantes da pergunta 1. No entanto, em muitos casos, simplesmente basear-se nas instruções de utilização dos sistemas de IA ou pedir ao pessoal que as leia pode ser ineficaz e insuficiente. O artigo 4.o do Regulamento Inteligência Artificial destina-se a proporcionar formações e orientações, conforme mais adequado, com base no nível e no tipo de conhecimentos de cada grupo-alvo, bem como tendo em conta o contexto e a finalidade dos sistemas de IA utilizados na organização.
Tal está também em consonância com outras disposições do Regulamento Inteligência Artificial. Por exemplo, o artigo 26.o introduz a obrigação de os responsáveis pela implantação de sistemas de risco elevado assegurarem que o pessoal que lida com os sistemas de IA tem, na prática, formação suficiente para lidar com o sistema e assegurar a supervisão humana. Por conseguinte, não basta confiar nas instruções de utilização, são necessárias medidas adicionais.
Não existe uma dimensão única para todos no que diz respeito à literacia em IA e o Serviço para a IA não tenciona impor requisitos rigorosos ou formações obrigatórias. Os requisitos para uma formação dependem do contexto concreto. Embora a reprodução das práticas recolhidas não conceda automaticamente a presunção de conformidade com o artigo 4.o, as iniciativas norepositório vivo sobre literacia em IA podem proporcionar alguma inspiração.
Não, o Serviço para a IA não impõe requisitos para setores específicos. No entanto, tal como referido na resposta à pergunta 1, o contexto – incluindo o setor e a finalidade – em que os sistemas de IA são fornecidos/implantados deve ser relevante para o desenvolvimento e a iniciativa de literacia em IA. Além disso, deve ser tido em conta o nível de risco dos sistemas de IA.
Tal depende do tipo concreto de sistema de IA e do risco (por exemplo, para o risco elevado). Em geral, as pessoas que trabalham para um prestador de serviços ou contratante têm de ter as competências de IA adequadas para desempenhar a tarefa em questão (tal como os trabalhadores).
Sim, devem ser informados sobre os riscos específicos, por exemplo, alucinações.
Estas são duas questões distintas. Os trabalhadores e as pessoas no circuito necessitam das competências adequadas, orientadas para o sistema que estão a utilizar.
Normalmente sim, mas depende da ferramenta de IA em questão e da sua qualificação específica. Este aspeto é particularmente relevante tendo em conta a rapidez da evolução tecnológica.
A organização deve ainda considerar as etapas na resposta à pergunta 1 e perguntar-se: Estes funcionários técnicos sabem o que é necessário saber sobre os sistemas de IA da organização e como lidar com eles? Estão cientes de todos os riscos e de como evitá-los/mitigá-los? Além disso, a organização deve considerar o que mais estes trabalhadores podem precisar de saber; por exemplo, aspetos jurídicos e éticos da IA.
Sim, o artigo 4.o do Regulamento Inteligência Artificial incentiva os fornecedores e responsáveis pela implantação a terem em conta os conhecimentos, a experiência, a educação e a formação dos trabalhadores e de outras pessoas, a fim de proporcionar um nível suficiente de literacia em IA. Dada a diferença entre os sistemas de IA e o facto de o nível de conhecimentos e experiência, bem como o tipo de educação e formação recebidas, poderem variar, pode ser adequado dispor de diferentes níveis de formação ou abordagens de aprendizagem.
Não é necessário um certificado. As organizações podem manter um registo interno das ações de formação e/ou de outras iniciativas de orientação.
Não, nenhuma estrutura de governação específica está mandatada para cumprir o artigo 4.o do Regulamento Inteligência Artificial.
Aplicação do artigo 4.o
O artigo 4.o do Regulamento Inteligência Artificial entrou em vigor em 2 de fevereiro de 2025, pelo que a obrigação de tomar medidas para assegurar a literacia em IA do seu pessoal já se aplica. As regras de supervisão e execução são aplicáveis a partir de 3 de agosto de 2026.
A supervisão e a aplicação do artigo 4.o do Regulamento Inteligência Artificial não cabem ao Serviço para a IA, mas são da competência das autoridades nacionais de fiscalização do mercado, que terão de ser nomeadas até 2 de agosto de 2025. As autoridades nacionais de fiscalização do mercado começarão a supervisionar e a aplicar as regras a partir de 2 de agosto de 2026. Embora as decisões em matéria de execução sejam tomadas pelas autoridades nacionais de fiscalização do mercado dos diferentes Estados-Membros, o Serviço para a IA trabalhará em estreita colaboração com o Comité para a IA para apoiar uma aplicação adequada.
As proibições são aplicáveis desde 2 de fevereiro de 2025. Com o Comité para a IA e a cooperação entre todas as autoridades competentes, será assegurada uma aplicação coerente das regras.
As autoridades nacionais de fiscalização do mercado podem impor sanções e outras medidas coercivas para sancionar as infrações ao artigo 4.o. Tal basear-se-á na legislação nacional que os Estados-Membros deverão adotar até 2 de agosto de 2025.
É importante sublinhar que a aplicação do Regulamento Inteligência Artificial segue uma abordagem proporcionada. Qualquer sanção deve ser proporcionada, baseada no caso concreto e ter em conta fatores como a natureza e a gravidade e o caráter intencional e negligente da infração. No entanto, tal pode ser mais provável se houver provas de um incidente devido à falta de formação e orientação adequadas dos trabalhadores ou de outras pessoas.
O quadro jurídico do Regulamento Inteligência Artificial aplica-se tanto aos intervenientes públicos como privados dentro e fora da UE, desde que o sistema de IA seja colocado no mercado da União, utilizado na União ou a sua utilização tenha impacto nas pessoas localizadas na UE. O mesmo se aplica ao artigo 4.o do Regulamento Inteligência Artificial.
A aplicação pública significa que cada Estado-Membro nomeará autoridades responsáveis pela aplicação das disposições do Regulamento Inteligência Artificial, que supervisionam e impõem o cumprimento desta lei. A execução privada refere-se ao cenário em que um particular sofre danos e considera que tal se deve ao facto de uma organização não cumprir a obrigação prevista no artigo 4.o e processa a organização para receber uma indemnização.
Em caso de danos/danos, o fornecedor de um sistema de IA pode ser processado, de acordo com o direito nacional. O Regulamento Inteligência Artificial não cria infrações penais nem um direito a indemnização.
Abordagem do Serviço IA à literacia em IA
De momento, serão fornecidas orientações através de outros exemplos de práticas, seminários em linha e esclarecimentos através da presente sessão de perguntas e respostas.
Uma vez nomeadas, as autoridades nacionais de fiscalização do mercado competentes poderão fornecer orientações adicionais sobre a aplicação da legislação. O Serviço para a IA trabalhará em estreita colaboração com o Comité para a IA sobre o tema da literacia em IA, em consonância com o artigo 66.o, alínea f), e o artigo 95.o, n.o 2-F, do Regulamento Inteligência Artificial.
A Comissão publicará orientações sobre a aplicação dos requisitos e obrigações referidos nos artigos 8.o a 15.o e no artigo 25.o do Regulamento Inteligência Artificial, e essas orientações abordarão também questões de literacia, ao debater, por exemplo, a supervisão humana ou a gestão de riscos.
A Comunicação AI@EC já identificou como ação operacional odesenvolvimento de uma política para criar e manter uma mão de obra qualificada em IA. A Comissão Europeia já aplicou várias medidas ao seu pessoal no que diz respeito à literacia em IA:
- A criação de um portal Web interno específico para a IA como balcão único acessível a todo o pessoal para os conteúdos relacionados com a IA — orientações em matéria de IA, recursos de formação em IA, eventos e notícias.
- Definição, na plataforma de formação da Comissão, de pacotes de aprendizagem no domínio da IA, orientados para diferentes alvos – generalistas, gestores e programadores (especialistas). Estes pacotes contêm uma lista compilada de ações de formação pertinentes, categorizando-as em ações essenciais, altamente recomendadas e recomendadas. Estão também disponíveis na plataforma ações de formação adicionais e a gravação de webinários.
- Formação sobre ferramentas de IA – Foi criada uma secção específica no portal da IA que enumera as ferramentas de IA disponíveis para todo o pessoal e que inclui os recursos de aprendizagem pertinentes para cada ferramenta. Há sessões periódicas de Q&A sobre a utilização da IA no seu trabalho diário.
- Existe uma comunidade de práticas de IA em que qualquer pessoa pode fazer perguntas relacionadas com a IA e interagir com peritos em IA.
Atualmente, muitas das agências já têm acesso à plataforma de aprendizagem da Comissão (EU-Learn), bem como a recursos como os pacotes de aprendizagem sobre IA e outras ações de formação da Comissão.
A fim de apoiar a aplicação e o cumprimento do artigo 4.o do Regulamento Inteligência Artificial, o Serviço para a IA continuará a alimentar o repositório vivo de práticas de literacia em IA, recolhendo mais exemplos de organizações e atualizando as perguntas e respostas disponíveis. Serão organizadas outras atividades de sensibilização e será lançada uma página Web específica para atividades relacionadas com a literacia em IA (dentro e fora do âmbito do artigo 4.o), as competências e os talentos, com o objetivo de promover o acesso à literacia em IA e promover o diálogo sobre IA para todos.
O Serviço para a IA valoriza muito as perspetivas e os conhecimentos especializados de todas as partes interessadas, incluindo a indústria. Por este motivo, criámos o Pacto para a IA para promover a criação de uma comunidade colaborativa, onde as partes interessadas podem partilhar boas práticas e políticas internas que possam ser úteis para outros no seu percurso de conformidade. No que diz respeito à literacia em IA, no âmbito do Pacto para a IA, publicámos recentemente um repositório vivo de práticas de literacia em IA; Qualquer fornecedor e/ou criador de sistemas de IA que tenha posto em prática um programa de literacia em IA é convidado a apresentar o seu contributo.
O Serviço para a IA verificará regularmente se todas as contribuições recebidas cumprem os critérios mínimos de transparência e fiabilidade antes de as aceitar no repositório público. Durante o período de verificação, o inquérito pode ser temporariamente encerrado.
Outros recursos úteis
O repositório vivo sobre práticas de literacia em IA está disponível gratuitamente no nosso sítio Web: Repositório vivo para promover a aprendizagem e o intercâmbio em matéria de literacia no domínio da IA
O repositório inclui vários exemplos de iniciativas em curso para promover organizações de literacia em IA de diferentes dimensões que fornecem e/ou implantam diferentes tipos de sistemas de IA em vários setores públicos e privados. As práticas fornecem exemplos de como abordar os conhecimentos de diferentes trabalhadores (por exemplo, técnicos – como o dos programadores – e não técnicos, como o de um administrador ou de um funcionário judicial), mas também se referem a iniciativas para outras pessoas, incluindo vendedores, parceiros e clientes. A lista de práticas não é exaustiva e será atualizada regularmente com outras práticas.
Embora a reprodução das práticas recolhidas neste repositório vivo não conceda automaticamente a presunção de conformidade com o artigo 4.o, o repositório visa incentivar a aprendizagem e o intercâmbio entre fornecedores e responsáveis pela implantação de sistemas de IA. Ao publicar as práticas, a Comissão não implica qualquer aprovação ou avaliação.
Um exemplo de iniciativa da UE que pode ser de apoio às PME é a rede dos Polos Europeus de Inovação Digital (PEID). Os Polos Europeus de Inovação Digital são 251 balcões únicos em toda a Europa (27 Estados-Membros, 3 países da EFTA – Noruega, Islândia e Listenstaine; 8 países associados: Albânia, Bósnia-Herzegovina, Kosovo, Montenegro, Macedónia do Norte, Sérvia, Turquia e Ucrânia), apoiando as PME e as organizações do setor público na digitalização dos seus processos. 80 % dos Polos Europeus de Inovação Digital já prestam serviços centrados na IA, incluindo ações de formação, seminários, campos de treino para diferentes necessidades e níveis de conhecimento da IA. As PME e as organizações do setor público podem contactar os Polos Europeus de Inovação Digital para receberem apoio com as tecnologias de IA e os seus objetivos de digitalização de um modo mais geral. Os Polos Europeus de Inovação Digital podem prestar assistência como primeiro serviço de assistência sobre o Regulamento Inteligência Artificial e servirde pontos de entrada para outras medidas de apoio financiadas pela UE,como, entre outras, instalações de ensaio e experimentação ou fábricas de IA. Pode encontrar o Polo Europeu de Inovação Digital mais próximo de si neste catálogo.
No contexto do Pacto para a IA, o Serviço para a IA organiza eventos e seminários em linha para envolver a comunidade da IA, promover a partilha de conhecimentos e boas práticas para promover uma IA de confiança. Pode encontrar todas as gravações de eventos passados e o anúncio de eventos futuros na página dedicada: Eventos do Pacto para a IA
É possível aceder livremente a mais material útil sobre IA através daPlataforma para asCompetências e o Emprego na Área Digital, incluindo:
Uma vez que não existe uma abordagem única para a literacia em IA, também não existe um quadro único. Apresentam-se em seguida alguns dos quadros mais utilizados a nível europeu e internacional, de acordo com o seu grupo-alvo.
Para todos os cidadãos
- O Quadro de Competências Digitais para os Cidadãos proporciona um entendimento comum do que é a competência digital. A publicação tem duas partes principais: o quadro integrado DigComp 2.2 fornece mais de 250 novos exemplos de conhecimentos, competências e atitudes que ajudam os cidadãos a participar de forma confiante, crítica e segura nas tecnologias digitais, incluindo a IA. Uma nova versão do quadro será publicada em 2025.
Para o setor da educação, professores e aprendentes:
- As presentes orientações éticas sobre a IA e a utilização de dados no ensino e na aprendizagem destinam-se a ajudar os educadores a compreender o potencial que as aplicações da IA e da utilização de dados podem ter na educação e a aumentar a sensibilização para os possíveis riscos, para que possam interagir de forma positiva, crítica e ética com os sistemas de IA e explorar todo o seu potencial.
- A Plataforma de Educação Escolar Europeia disponibiliza uma série de materiais sobre IA para professores e aprendentes.
- A comunidade de práticas daPlataforma de Educação Digital constitui uma oportunidade para as partes interessadas no domínio da educação e da formação debaterem e trocarem pontos de vista sobre temas relacionados com a educação digital, incluindo a IA. No âmbito da PEAI, um grupo de trabalho específico (esquadrão) publicou um relatório sobre a IA na educação, que fornece mais informações sobre o desenvolvimento de competências em IA e a formação de professores.
- O quadro de competências da UNESCO em matéria de IA para professores destina-se a apoiar o desenvolvimento de competências de IA entre professores, a fim de os capacitar para utilizar estas ferramentas tecnológicas nas suas práticas de ensino de forma segura, eficaz e ética.
- O quadro de competências da UNESCO em matéria de IA para estudantes visa servir de guia para os sistemas de ensino público desenvolverem as competências exigidas a todos os estudantes e cidadãos para a aplicação eficaz das estratégias nacionais em matéria de IA e a construção de futuros inclusivos, justos e sustentáveis nesta nova era tecnológica.
Related content
A Comissão pretende aumentar o número de peritos em IA, formando e atraindo mais investigadores e profissionais e melhorando as competências dos trabalhadores e da população em geral em matéria de IA.