Perguntas frequentes gerais
A inteligência artificial («IA»)promete enormes benefícios para a nossa economia e sociedade. Os modelos de IA de finalidade geral desempenham um papel importante a este respeito, uma vez que podem ser utilizados para uma variedade de tarefas e, por conseguinte, constituem a base de uma série de sistemas de IA a jusante, utilizados na Europa e em todo o mundo.
O Regulamento Inteligência Artificial visa assegurar que os modelos de IA de finalidade geral são seguros e fiáveis.
Para alcançar esse objetivo, é fundamental que os fornecedores de modelos de IA de finalidade geral assegurem uma boa compreensão dos seus modelos ao longo de toda a cadeia de valor da IA, de modo a permitir que os fornecedores a jusante integrem esses modelos em sistemas de IA e cumpram as suas próprias obrigações ao abrigo do Regulamento Inteligência Artificial. Mais especificamente, e tal como explicado mais pormenorizadamente abaixo, os fornecedores de modelos de IA de finalidade geral devem elaborar documentação técnica dos seus modelos para disponibilizar aos fornecedores a jusante e fornecer, mediante pedido, ao Serviço IA e às autoridades nacionais competentes, estabelecer uma política de direitos de autor e publicar um resumo dos conteúdos de formação. Além disso, os fornecedores de modelos de IA de finalidade geral que apresentem riscos sistémicos, o que pode ser o caso porque os modelos são muito capazes ou porque têm um impacto significativo no mercado interno por outras razões, devem notificar esses modelos à Comissão, avaliar e atenuar os riscos sistémicos decorrentes desses modelos, nomeadamente através da realização de avaliações dos modelos, da comunicação de incidentes graves e da garantia de uma cibersegurança adequada desses modelos.
Desta forma, o Regulamento Inteligência Artificial contribui para uma inovação segura e fiável na União Europeia.
O Regulamento Inteligência Artificial define um modelo de IA de finalidade geral como «um modelo de IA, incluindo quando esse modelo de IA é treinado com uma grande quantidade de dados utilizando autosupervisão em escala, que apresenta uma generalidade significativa e é capaz de desempenhar com competência uma vasta gama de tarefas distintas, independentemente da forma como o modelo é colocado no mercado, e que pode ser integrado numa variedade de sistemas ou aplicações a jusante» (artigo 3.o, n.o 63, do Regulamento Inteligência Artificial).
Os considerandos do Regulamento Inteligência Artificial clarificam ainda quais os modelos que devem ser considerados como apresentando uma generalidade significativa e capazes de desempenhar uma vasta gama de tarefas distintas.
De acordo com o considerando 98 do Regulamento Inteligência Artificial, «considera-se que a generalidade de um modelo pode, nomeadamente, ser também determinada por uma série de parâmetros, devendo considerar-se que os modelos com, pelo menos, mil milhões de parâmetros e treinados com uma grande quantidade de dados utilizando a autosupervisão em escala apresentam uma generalidade significativa e desempenham com competência uma vasta gama de tarefas distintas».
O considerando 99 do Regulamento Inteligência Artificial acrescenta que «os grandes modelos de IA generativa são um exemplo típico de um modelo de IA de finalidade geral, uma vez que permitem a geração flexível de conteúdos, nomeadamente sob a forma de texto, áudio, imagens ou vídeo, que podem facilmente acomodar uma vasta gama de tarefas distintas».
Note-se que a generalidade significativa e a capacidade de executar com competência uma ampla gama de tarefas distintas podem ser alcançadas por modelos dentro de uma única modalidade, como texto, áudio, imagens ou vídeo, se a modalidade for suficientemente flexível. Isto também pode ser conseguido por modelos que foram desenvolvidos, aperfeiçoados ou modificados de outra forma para serem particularmente bons em uma tarefa específica ou em uma série de tarefas em um domínio específico.
As diferentes fases do desenvolvimento de um modelo não constituem modelos diferentes.
O Serviço IA tenciona prestar esclarecimentos adicionais sobre o que deve ser considerado um modelo de IA de finalidade geral, com base nos conhecimentos do Centro Comum de Investigação da Comissão, que está atualmente a trabalhar num projeto de investigação científica que aborda esta e outras questões.
Os riscos sistémicos são riscos de danos em grande escala decorrentes dos modelos mais avançados (ou seja, os mais avançados) em qualquer momento ou de outros modelos com impacto equivalente (ver o artigo 3.o, n.o 65, do Regulamento Inteligência Artificial). Esses riscos podem manifestar-se, por exemplo, através da redução dos obstáculos ao desenvolvimento de armas químicas ou biológicas ou de questões não intencionais de controlo sobre modelos autónomos de IA de finalidade geral (considerando 110 do Regulamento Inteligência Artificial). Os modelos mais avançados num determinado momento podem representar riscos sistémicos, incluindo novos riscos, uma vez que estão a impulsionar o estado da técnica. Ao mesmo tempo, alguns modelos abaixo do limiar que reflete o estado da técnica podem também representar riscos sistémicos, por exemplo através do alcance, da escalabilidade ou dos andaimes.
Por conseguinte, o Regulamento Inteligência Artificial classifica um modelo de IA de finalidade geral como um modelo de IA de finalidade geral com risco sistémico se for um dos modelos mais avançados nesse momento ou se tiver um impacto equivalente (artigo 51.o, n.o 1, do Regulamento Inteligência Artificial). Os modelos que são considerados modelos de IA de finalidade geral com risco sistémico podem mudar ao longo do tempo, refletindo a evolução do estado da arte e a potencial adaptação da sociedade a modelos cada vez mais avançados. Atualmente, os modelos de IA de finalidade geral com risco sistémico são desenvolvidos por um pequeno número de empresas, embora tal possa mudar no futuro.
Para captar os modelos mais avançados, ou seja, modelos que correspondem ou excedem as capacidades registadas nos modelos mais avançados até à data, o Regulamento Inteligência Artificial estabelece um limiar de 10^25 operações de vírgula flutuante (FLOP) utilizadas para treinar o modelo (artigo 51.o, n.o 1, alínea a), e n.o 2, do Regulamento Inteligência Artificial). Estima-se atualmente que a formação de um modelo que cumpra este limiar custe dezenas de milhões de euros (EpochAI, 2024). O Serviço IA acompanha continuamente a evolução tecnológica e industrial e a Comissão pode atualizar o limiar, através da adoção de um ato delegado (artigo 51.o, n.o 3, do Regulamento Inteligência Artificial), a fim de assegurar que continua a destacar os modelos mais avançados à medida que o estado da técnica evolui. Por exemplo, o valor do limiar em si pode ser ajustado e/ou podem ser introduzidos limiares adicionais.
A fim de captar modelos com um impacto equivalente aos modelos mais avançados, o Regulamento Inteligência Artificial habilita a Comissão a designar modelos adicionais como representando um risco sistémico, com base em critérios como as avaliações das capacidades do modelo, o número de utilizadores, a escalabilidade ou o acesso a ferramentas [artigo 51.o, n.o 1, alínea b), e anexo XIII do Regulamento Inteligência Artificial].
O Serviço IA tenciona prestar esclarecimentos adicionais sobre a forma como os modelos de IA de finalidade geral serão classificados como modelos de IA de finalidade geral com risco sistémico, com base nos conhecimentos do Centro Comum de Investigação da Comissão, que está atualmente a trabalhar num projeto de investigação científica que aborda esta e outras questões.
As regras do Regulamento Inteligência Artificial relativas aos modelos de IA de finalidade geral aplicam-se aos fornecedores que colocam esses modelos no mercado da União, independentemente de esses fornecedores estarem estabelecidos ou localizados na União ou num país terceiro (artigo 2.o, n.o 1, alínea a), do Regulamento Inteligência Artificial).
Entende-se por fornecedor de um modelo de IA de finalidade geral uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva um modelo de IA de finalidade geral ou que o tenha desenvolvido e o coloque no mercado, a título oneroso, gratuito ou oneroso (artigo 3.o, n.o 3, do Regulamento Inteligência Artificial).
Colocar um modelo no mercado significa a primeira disponibilização do modelo no mercado da União (artigo 3.o, n.o 9, do Regulamento Inteligência Artificial), ou seja, fornecê-lo para distribuição ou utilização no mercado da União pela primeira vez no âmbito de uma atividade comercial, a título oneroso ou gratuito (artigo 3.o, n.o 10, do Regulamento Inteligência Artificial). Note-se que um modelo de IA de finalidade geral também é considerado colocado no mercado se o fornecedor desse modelo integrar o modelo no seu próprio sistema de IA que é disponibilizado no mercado ou colocado em serviço, a menos que o modelo seja a) utilizado para processos puramente internos que não sejam essenciais para fornecer um produto ou um serviço a terceiros, b) os direitos das pessoas singulares não sejam afetados e c) o modelo não seja um modelo de IA de finalidade geral com risco sistémico (considerando 97 do Regulamento Inteligência Artificial).
Os fornecedores de modelos de IA de finalidade geral devem documentar as informações técnicas sobre os seus modelos para fornecer essas informações, mediante pedido, ao Serviço IA e às autoridades nacionais competentes (artigo 53.o, n.o 1, alínea a), do Regulamento Inteligência Artificial) e disponibilizá-las aos fornecedores a jusante (artigo 53.o, n.o 1, alínea b), do Regulamento Inteligência Artificial). Devem igualmente pôr em prática uma política para cumprir o direito da União em matéria de direitos de autor e direitos conexos (artigo 53.o, n.o 1, alínea c), do Regulamento Inteligência Artificial) e elaborar e disponibilizar ao público um resumo suficientemente pormenorizado sobre os conteúdos utilizados para formar o modelo (artigo 53.o, n.o 1, alínea d), do Regulamento Inteligência Artificial).
O Código de Conduta para a Inteligência Artificial de Finalidade Geral deve fornecer aos signatários mais pormenores sobre a forma de assegurar o cumprimento destas obrigações nas secções que tratam da transparência e dos direitos de autor (lideradas pelo Grupo de Trabalho 1).
Nos termos do Regulamento Inteligência Artificial, os fornecedores de modelos de IA de finalidade geral com risco sistémico têm obrigações adicionais. Devem avaliar e atenuar os riscos sistémicos, em especial através da realização de avaliações de modelos, do acompanhamento, da documentação e da comunicação de incidentes graves e da garantia de uma proteção adequada da cibersegurança do modelo e da sua infraestrutura física (artigo 55.o do Regulamento Inteligência Artificial).
O Código de Conduta para a Inteligência Artificial de Finalidade Geral deve fornecer aos signatários mais pormenores sobre a forma de assegurar o cumprimento destas obrigações nas secções que tratam da avaliação dos riscos sistémicos, da atenuação dos riscos técnicos e da atenuação dos riscos de governação (lideradas pelos grupos de trabalho 2, 3 e 4, respetivamente).
As obrigações dos fornecedores de modelos de IA de finalidade geral são aplicáveis a partir de 2 de agosto de 2025 (artigo 113.o, alínea b), do Regulamento Inteligência Artificial), com regras especiais para os modelos de IA de finalidade geral colocados no mercado antes dessa data (artigo 111.o, n.o 3, do Regulamento Inteligência Artificial).
As obrigações de elaborar e fornecer documentação ao Serviço IA, às autoridades nacionais competentes e aos fornecedores a jusante (artigo 53.o, n.o 1, alíneas a) e b), do Regulamento Inteligência Artificial) não se aplicam se o modelo for divulgado ao abrigo de uma licença gratuita e de fonte aberta e os seus parâmetros, incluindo as ponderações, as informações sobre a arquitetura do modelo e as informações sobre a utilização do modelo, forem disponibilizados ao público (artigo 53.o, n.o 2, do Regulamento Inteligência Artificial). Os considerandos 102 e 103 do Regulamento Inteligência Artificial clarificam melhor o que constitui uma licença livre e de fonte aberta e o Serviço IA tenciona prestar mais esclarecimentos sobre questões relativas aos modelos de IA de finalidade geral de fonte aberta.
A isenção não se aplica aos modelos de IA de finalidade geral com risco sistémico. Após a versão do modelo de fonte aberta, as medidas necessárias para assegurar o cumprimento das obrigações previstas no artigo 55.o podem ser mais difíceis de aplicar (considerando 112 do Regulamento Inteligência Artificial). Por conseguinte, os fornecedores de modelos de IA de finalidade geral com risco sistémico podem ter de avaliar e atenuar os riscos sistémicos antes de divulgarem os seus modelos como de fonte aberta.
O Código de Conduta para a Inteligência Artificial de Finalidade Geral deve fornecer aos signatários mais pormenores sobre a forma de cumprir as obrigações previstas nos artigos 53.o e 55.o em relação às diferentes formas de divulgar modelos de IA de finalidade geral, incluindo a fonte aberta.
Uma questão importante, mas difícil, subjacente ao processo de elaboração do Código de Conduta é a de encontrar um equilíbrio entre a procura dos benefícios e a atenuação dos riscos decorrentes da fonte aberta de modelos avançados de IA de finalidade geral: os modelos avançados de IA de finalidade geral de fonte aberta podem, de facto, produzir benefícios societais significativos, nomeadamente através da promoção da investigação no domínio da segurança da IA; ao mesmo tempo, quando esses modelos são de fonte aberta, as mitigações de risco são mais facilmente contornadas ou removidas.
O artigo 2.o, n.o 8, do Regulamento Inteligência Artificial prevê que, de um modo geral, o Regulamento Inteligência Artificial «não se aplica a qualquer atividade de investigação, teste ou desenvolvimento relativa a sistemas ou modelos de IA antes da sua colocação no mercado ou colocação em serviço».
Ao mesmo tempo, certas obrigações dos fornecedores de modelos de IA de finalidade geral (com e sem risco sistémico) dizem explícita ou implicitamente respeito à fase de desenvolvimento de modelos destinados à colocação no mercado, mas antes dela. É o caso, por exemplo, das obrigações dos fornecedores de notificarem a Comissão de que o seu modelo de IA de finalidade geral cumpre ou cumprirá o limiar de cálculo da formação (artigos 51.o e 52.o do Regulamento Inteligência Artificial), de documentarem informações sobre a formação e os testes (artigo 53.o do Regulamento Inteligência Artificial) e de avaliarem e atenuarem o risco sistémico (artigo 55.o do Regulamento Inteligência Artificial). Em especial, o artigo 55.o, n.o 1, alínea b), do Regulamento Inteligência Artificial prevê explicitamente que «os fornecedores de modelos de IA de finalidade geral com risco sistémico devem avaliar e atenuar eventuais riscos sistémicos a nível da União, incluindo as suas fontes, que possam resultar do desenvolvimento (...) de modelos de IA de finalidade geral com risco sistémico».
O Serviço IA espera que os debates com os fornecedores de modelos de IA de finalidade geral com risco sistémico comecem numa fase precoce da fase de desenvolvimento. Tal é coerente com a obrigação de os fornecedores de modelos de IA de finalidade geral que cumpram o limiar de cálculo da formação estabelecido no artigo 51.o, n.o 2, do Regulamento Inteligência Artificial «notificarem a Comissão sem demora e, em qualquer caso, no prazo de duas semanas após o cumprimento desse requisito ou se tornar conhecido que será cumprido» (artigo 52.o, n.o 1, do Regulamento Inteligência Artificial). Com efeito, a formação de modelos de IA de finalidade geral exige um planeamento considerável, que inclui a afetação inicial de recursos de cálculo, e os fornecedores de modelos de IA de finalidade geral podem, por conseguinte, saber se o seu modelo cumprirá o limiar de cálculo de formação antes de a formação estar concluída (considerando 112 do Regulamento Inteligência Artificial).
O Serviço IA tenciona prestar esclarecimentos adicionais sobre esta questão.
Os modelos de IA de finalidadegeral podem ser modificados ou ajustados a novos modelos (considerando 97 do Regulamento Inteligência Artificial). Por conseguinte, as entidades a jusante que aperfeiçoam ou modificam de outra forma um modelo de IA de finalidade geral existente podem tornar-se fornecedores de novos modelos. As circunstâncias específicas em que uma entidade a jusante se torna fornecedora de um novo modelo são uma questão difícil com implicações económicas potencialmente grandes, uma vez que muitas organizações e indivíduos afinam ou modificam de outra forma os modelos de IA de finalidade geral desenvolvidos por outra entidade.
Em caso de alteração ou ajustamento de um modelo de IA de finalidade geral existente, as obrigações dos fornecedores de modelos de IA de finalidade geral previstas no artigo 53.o do Regulamento Inteligência Artificial devem limitar-se à alteração ou ajustamento, por exemplo, complementando a documentação técnica já existente com informações sobre as alterações (considerando 109). As obrigações dos fornecedores de modelos de IA de finalidade geral com risco sistémico previstas no artigo 55.o do Regulamento Inteligência Artificial só devem aplicar-se em casos claramente especificados. O Serviço IA tenciona prestar esclarecimentos adicionais sobre esta questão.
Independentemente de uma entidade a jusante que incorpore um modelo de IA de finalidade geral num sistema de IA ser considerada um fornecedor do modelo de IA de finalidade geral, essa entidade tem de cumprir os requisitos e obrigações pertinentes do Regulamento Inteligência Artificial aplicáveis aos sistemas de IA.
Com base no artigo 56.o do Regulamento Inteligência Artificial, o Código de Conduta para a Inteligência Artificial de Finalidade Geral deve especificar a forma como os fornecedores de modelos de IA de finalidade geral e de modelos de IA de finalidade geral com risco sistémico podem cumprir as suas obrigações ao abrigo do Regulamento Inteligência Artificial. O Serviço IA está a facilitar a elaboração deste código de conduta, com quatro grupos de trabalho presididos por peritos independentes e envolvendo quase 1000 partes interessadas, representantes dos Estados-Membros da UE, bem como observadores europeus e internacionais.
Mais precisamente, o Código de Conduta deve especificar, pelo menos, a forma como os fornecedores de modelos de IA de finalidade geral podem cumprir as obrigações estabelecidas nos artigos 53.o e 55.o do Regulamento Inteligência Artificial. Isto significa que se pode esperar que o Código de Conduta tenha duas partes: um que se aplica aos fornecedores de todos os modelos de IA de finalidade geral (artigo 53.o) e outro que se aplica apenas aos fornecedores de modelos de IA de finalidade geral com risco sistémico (artigo 55.o).
O Código de Conduta não deve abordar, nomeadamente, as seguintes questões: definir os principais conceitos e definições do Regulamento Inteligência Artificial (como o «modelo de IA de finalidade geral»), atualizar os critérios ou limiares para classificar um modelo de IA de finalidade geral como um modelo de IA de finalidade geral com risco sistémico (artigo 51.o), descrever a forma como o Serviço IA fará cumprir as obrigações dos fornecedores de modelos de IA de finalidade geral (capítulo IX, secção 5) e questões relativas a coimas, sanções e responsabilidade.
Estas questões podem, em vez disso, ser abordadas por outros meios (decisões, atos delegados, atos de execução, outras comunicações do Serviço IA, etc.).
No entanto, o Código de Conduta pode incluir compromissos por parte dos fornecedores de modelos de IA de finalidade geral que o assinam no sentido de documentar e comunicar informações adicionais, bem como de envolver o Serviço IA e terceiros ao longo de todo o ciclo de vida do modelo, na medida em que tal seja considerado necessário para que os fornecedores cumpram efetivamente as suas obrigações ao abrigo do Regulamento Inteligência Artificial.
O Regulamento Inteligência Artificial estabelece uma distinção entre sistemas de IA e modelos de IA, impondo requisitos a determinados sistemas de IA (capítulos II a IV) e obrigações aos fornecedores de modelos de IA de finalidade geral (capítulo V). Embora as disposições do Regulamento Inteligência Artificial relativas aos sistemas de IA dependam do contexto de utilização do sistema, as disposições do Regulamento Inteligência Artificial relativas aos modelos de IA de finalidade geral aplicam-se ao próprio modelo, independentemente da sua utilização final ou futura. O código de conduta só deve dizer respeito às obrigações previstas no Regulamento Inteligência Artificial para os fornecedores de modelos de IA de finalidade geral.
No entanto, existem interações entre os dois conjuntos de regras, uma vez que os modelos de IA de finalidade geral são normalmente integrados e fazem parte dos sistemas de IA. Se um fornecedor de um modelo de IA de finalidade geral integrar esse modelo num sistema de IA, esse fornecedor tem de cumprir as obrigações dos fornecedores de modelos de IA de finalidade geral e, se o sistema de IA for abrangido pelo âmbito de aplicação do Regulamento Inteligência Artificial, os requisitos aplicáveis aos sistemas de IA. Se um fornecedor a jusante integrar um modelo de IA de finalidade geral num sistema de IA, o fornecedor do modelo de IA de finalidade geral deve cooperar com o fornecedor a jusante do sistema de IA para assegurar que este último possa cumprir as suas obrigações ao abrigo do Regulamento Inteligência Artificial se o sistema de IA for abrangido pelo âmbito de aplicação do Regulamento Inteligência Artificial (por exemplo, fornecendo determinadas informações ao fornecedor a jusante).
Dadas estas interacções entre modelos e sistemas, e entre as obrigações e os requisitos para cada um deles, uma questão importante subjacente ao Código de Prática diz respeito às medidas adequadas ao nível do modelo e às que devem ser tomadas ao nível do sistema.
O código de conduta deve definir os seus objetivos, compromissos, medidas e, se for caso disso, indicadores-chave de desempenho (ICD) para medir a consecução dos seus objetivos. Os compromissos, as medidas e os ICD relacionados com as obrigações aplicáveis aos fornecedores de todos os modelos de IA de finalidade geral devem ter devidamente em conta a dimensão do fornecedor e permitir formas simplificadas de conformidade para as PME, incluindo as empresas em fase de arranque, que não devem representar um custo excessivo nem desincentivar a utilização desses modelos (considerando 109 do Regulamento Inteligência Artificial). Além disso, os compromissos de comunicação de informações relacionados com as obrigações aplicáveis aos fornecedores de modelos de IA de finalidade geral com risco sistémico devem refletir as diferenças de dimensão e capacidade entre os vários fornecedores (artigo 56.o, n.o 5, do Regulamento Inteligência Artificial), assegurando simultaneamente que são proporcionais aos riscos (artigo 56.o, n.o 2, alínea d), do Regulamento Inteligência Artificial).
Após a publicação do terceiro projeto do Código de Conduta, espera-se que haja mais uma ronda de redação nos próximos meses. Treze presidentes e vice-presidentes, oriundos de diversos contextos nos domínios da informática, da governação da IA e do direito, são responsáveis por sintetizar os contributos de uma consulta multilateral e de debates com o Plenário do Código de Conduta, composto por cerca de 1000 partes interessadas. Este processo iterativo conduzirá a um código de conduta final que deve refletir as várias apresentações, assegurando simultaneamente uma reflexão adequada sobre a forma de cumprir o Regulamento Inteligência Artificial.
Com base no artigo 56.o, n.o 9, «os códigos de conduta devem estar prontos, o mais tardar, até 2 de maio de 2025», a fim de dar aos prestadores tempo suficiente antes de as regras GPAI se tornarem aplicáveis em 2 de agosto de 2025.
Uma vez finalizado o Código, «o Serviço IA e o Comité avaliam se os códigos de conduta abrangem as obrigações previstas nos artigos 53.o e 55.o (...). Devem publicar a sua avaliação da adequação dos códigos de conduta. A Comissão pode, por meio de um ato de execução, aprovar um código de conduta e conferir-lhe uma validade geral na União.» (artigo 56.o, n.o 6, do Regulamento Inteligência Artificial).
Se aprovado através de um ato de execução, o Código de Conduta obtém validade geral, o que significa que a adesão ao Código de Conduta se torna um meio para demonstrar a conformidade com o Regulamento Inteligência Artificial, sem conferir uma presunção de conformidade com o Regulamento Inteligência Artificial. Os fornecedores podem também demonstrar a conformidade com o Regulamento Inteligência Artificial de outras formas. Nesse caso, espera-se que os fornecedores adotem medidas para assegurar o cumprimento das suas obrigações decorrentes do Regulamento Inteligência Artificial que sejam adequadas, eficazes e proporcionadas, e que podem incluir a comunicação de informações ao Serviço IA.
Com base no Regulamento Inteligência Artificial, os efeitos jurídicos adicionais do Código de Conduta são que o Serviço IA pode ter em conta a adesão de um fornecedor ao Código de Conduta ao acompanhar a sua aplicação efetiva e o cumprimento do Regulamento Inteligência Artificial (artigo 89.o, n.o 1, do Regulamento Inteligência Artificial) e pode ter favoravelmente em conta os compromissos assumidos no Código de Conduta ao fixar o montante das coimas em função das circunstâncias específicas (artigo 101.o, n.o 1, do Regulamento Inteligência Artificial).
Por último, «Se, até 2 de agosto de 2025, um código de conduta não puder ser finalizado, ou se o Serviço IA considerar que não é adequado na sequência da sua avaliação nos termos do n.o 6 do presente artigo, a Comissão pode estabelecer, por meio de atos de execução, regras comuns para a execução das obrigações previstas nos artigos 53.o e 55.o, incluindo as questões estabelecidas no n.o 2 do presente artigo.» (artigo 56.o, n.o 9, do Regulamento Inteligência Artificial).
Com base no artigo 56.o, n.o 8, do Regulamento Inteligência Artificial, «o Serviço IA deve também, se for caso disso, incentivar e facilitar a revisão e a adaptação dos códigos de conduta, em especial à luz das normas emergentes». O terceiro projeto do Código de Conduta inclui um mecanismo sugerido para a sua revisão e atualização.
O Serviço IA supervisionará e aplicará as obrigações estabelecidas no Regulamento Inteligência Artificial para os fornecedores de modelos de IA de finalidade geral (artigo 88.o do Regulamento Inteligência Artificial) e, excecionalmente, as obrigações para os fornecedores de sistemas de IA baseados em modelos de IA de finalidade geral se o fornecedor do modelo e o sistema forem os mesmos (artigo 75.o, n.o 1, do Regulamento Inteligência Artificial). O Serviço IA apoiará as autoridades de fiscalização do mercado competentes dos Estados-Membros na aplicação dos requisitos aplicáveis aos sistemas de IA (artigo 75.o, n.os 2 e 3, do Regulamento Inteligência Artificial), entre outras tarefas. A aplicação coerciva pelo Serviço IA assenta nos poderes que lhe são conferidos pelo Regulamento Inteligência Artificial, nomeadamente os poderes de solicitar informações (artigo 91.o do Regulamento Inteligência Artificial), realizar avaliações de modelos de IA de finalidade geral (artigo 92.o do Regulamento Inteligência Artificial), solicitar medidas aos fornecedores, incluindo a aplicação de medidas de atenuação dos riscos e a retirada do modelo do mercado (artigo 93.o do Regulamento Inteligência Artificial), e aplicar coimas até 3 % do volume de negócios anual mundial ou 15 milhões de euros, consoante o que for mais elevado (artigo 101.o do Regulamento Inteligência Artificial).
Related content
O primeiro código de conduta para a IA de finalidade geral especificará as regras do Regulamento Inteligência Artificial aplicáveis aos fornecedores de modelos de IA de finalidade geral e de modelos de IA de finalidade geral com riscos sistémicos.