Bandeiras tremulantes da União Europeia em uma fileira em frente ao prédio do Parlamento Europeu em Bruxelas

Por que as empresas devem se preparar agora para a nova Lei de IA da UE

Tópicos relacionados

A Lei de IA da UE é uma lei histórica que regulamenta o uso da inteligência artificial na UE e fora dela. Descubra como isso se aplica a você.


Em resumo

  • A Lei de IA da UE se aplica a todas as organizações que desenvolvem, implantam, importam ou distribuem modelos ou sistemas de IA para a UE.
  •  Os sistemas de IA são classificados em níveis baseados em riscos com níveis variados de obrigações de conformidade.
  •  As organizações devem tomar as medidas necessárias para cumprir ou enfrentar multas significativas.

A Lei de Inteligência Artificial (IA) da União Europeia (UE), que entra em vigor em 1ºd agosto de 2024, unifica a regulamentação da IA nos 27 estados membros do mercado único. A legislação tem vários objetivos gerais. Ele busca usar mecanismos legais para proteger os direitos fundamentais e a segurança da população da UE quando exposta à IA; incentivar o investimento e a inovação na tecnologia; e desenvolver um mercado único e não fragmentado para “aplicações de IA legais, seguras e confiáveis”.

Quem é afetado pela Lei?

A lei se aplica a todos os sistemas de IA que afetam as pessoas na UE e a todas as organizações da cadeia de valor, sejam elas desenvolvedoras, implantadoras, importadoras ou distribuidoras. Fundamentalmente, a Lei é extraterritorial, o que significa que as entidades não precisam estar sediadas na UE para que ela seja aplicável. Na maioria dos casos, a Lei não se aplica retroativamente, mas em alguns casos limitados, os modelos e sistemas de IA colocados no mercado antes de se tornarem lei terão que estar em conformidade.

Como a Lei de IA da UE afeta você?

Entenda os principais elementos da lei e suas obrigações de conformidade.

Quais são os pontos-chave da Lei?

A lei exige que as organizações cumpram certas obrigações, dependendo em grande parte do nível de risco representado pela forma como seus sistemas de IA são usados. Existem dois sistemas de classificação de risco, um para modelos de IA de uso geral (GPAI) e segundo para outros sistemas de IA.

Os riscos dos sistemas de IA são classificados em três níveis principais: proibido, alto risco e risco mínimo. Cada nível tem requisitos de conformidade diferentes, conforme resumido abaixo.

Nível de risco
Descrição do produto
Nível de conformidade
Os exemplos de casos de uso incluem:

Proibido

Sistemas de IA que representam um risco inaceitável para a segurança e os direitos fundamentais das pessoas.

Proibido

1. Pontuação social que pode levar a um tratamento prejudicial

 

2. Sistemas de reconhecimento emocional no local de trabalho

 

3. Policiamento preditivo de indivíduos

 

(Algumas isenções serão aplicadas)

risco elevado

Permitido, sujeito à conformidade com os requisitos da Lei de IA da UE (incluindo avaliações de conformidade antes de ser colocado no mercado).

Significativo

Uso da IA em: 

 

1. Recrutamento

 

2. Sistemas de vigilância de identificação biométrica

 

3. Segurança de infraestrutura crítica (por exemplo, energia e transporte)

Risco mínimo

Permitido, sujeito a obrigações específicas de transparência e divulgação, quando o uso representa um risco limitado.

limitado

1. Chatbots

 

2. Conteúdo visual ou de áudio manipulado pela IA

Risco mínimo

Permitido, sem requisitos adicionais quando o uso representa um risco mínimo.

Mínimo

1. Software de edição de fotos

 

2. Sistemas de recomendação de produtos

 

3. Software de filtragem de spam

Os modelos GPAI, incluindo IA generativa, também seguem uma abordagem hierárquica, mas dentro de uma estrutura de classificação separada que aplica requisitos adicionais de transparência. As obrigações mais estritas se aplicam aos modelos GPAI mais poderosos que representam um “risco sistêmico”.

Nível
Descrição do produto
Nível de conformidade

Risco de nível básico

Modelos que atendem à definição do GPAI

Obrigações de transparência limitadas (mais detalhes disponíveis aqui)

Risco sistêmico

Modelos de GPAI de alto impacto que representam um risco sistêmico são identificados provisoriamente com base na quantidade cumulativa de capacidade de computação usada para treinamento (com potência superior a 1025 operações de ponto flutuante).

Um modelo também pode ser classificado nesse nível com base na decisão da Comissão de que um modelo de IA de uso geral tem capacidades ou impacto equivalentes aos acima.

Obrigações significativas (mais detalhes disponíveis aqui)

Quando a Lei entra em vigor?

A Lei de IA da UE entra em vigor em 1º deagosto de 2024, no entanto, suas obrigações de conformidade escalonadas entrarão em vigor em etapas ao longo de vários anos. Por exemplo, as organizações devem cumprir as proibições da Lei de IA da UE dentro de seis meses (2e fevereiro de 2025) e garantir que estejam em conformidade com a maioria das obrigações do GPAI dentro de um ano (2e agosto de 2025). As organizações devem cumprir a maioria das outras obrigações dentro de dois anos (2de agosto de 2026).

Quais são as penalidades por não conformidade?

As penalidades são significativas. Uma empresa pode ser multada em até €35 milhões ou 7% de seu faturamento anual mundial (receita), o que for maior, por violar os requisitos proibidos do sistema de IA. A não conformidade com os requisitos do sistema de IA de alto risco pode resultar em uma multa de até €15 milhões ou 3% do faturamento anual mundial, novamente dependendo de qual for o maior. O fornecimento de informações incorretas ou enganosas aos reguladores pode resultar em uma multa de até 7,5 milhões de euros ou 1% do faturamento anual mundial.

É útil observar que a maioria dos sistemas de IA já existentes no mercado (exceto os proibidos) não precisará cumprir retroativamente, a menos que tenham sido sujeitos a modificações substanciais após as datas de aplicação.

O que você deve fazer para se preparar para a Lei?

Considere as seguintes ações:

1. Crie um inventário de todos os sistemas de IA que você tem —  ou planeja ter —  e determine se algum se enquadra no escopo da Lei de IA da UE.

2. Avalie e categorize os sistemas de IA incluídos no escopo para determinar sua classificação de risco e identificar os requisitos de conformidade aplicáveis.

3. Entenda a posição da sua organização nas cadeias de valor de IA relevantes, as obrigações de conformidade associadas e como elas serão cumpridas. Incorpore a conformidade em todas as funções responsáveis ao longo da cadeia de valor, em todo o ciclo de vida do sistema de IA.

4. Considere quais outras questões, riscos e oportunidades a Lei de IA da UE representa para suas operações e estratégia.

  • Os riscos incluem a interação com outros regulamentos da UE ou de fora da UE, incluindo aqueles sobre privacidade de dados.
  • As oportunidades podem envolver o acesso aos canais de pesquisa e desenvolvimento de IA. A UE está, por exemplo, estabelecendo “caixas de areia” onde inovadores, pequenas e médias empresas e outros podem optar por experimentar, testar, treinar e validar seus sistemas sob supervisão regulatória antes de levá-los ao mercado.

5. Desenvolva e execute um plano para garantir que as estruturas apropriadas de responsabilidade e governança, sistemas de gerenciamento e controle de riscos, gerenciamento de qualidade, monitoramento e documentação estejam em vigor quando a Lei entrar em vigor. 

Sumário

A conformidade com a Lei de IA da UE exigirá uma grande preparação para as organizações abrangidas, especialmente aquelas que desenvolvem sistemas de IA de alto risco e IA de uso geral. No entanto, a Lei de IA da UE estabelece uma base comum de confiança, transparência e responsabilidade por essa tecnologia em rápido desenvolvimento.

Artigos relacionados

Como navegar pelas tendências globais na regulamentação da Inteligência Artificial

Saiba por que a abordagem regulatória da AI de oito jurisdições globais tem um papel vital para desempenhar no desenvolvimento de regras para o uso da AI.

12 jan. 2024 EY Brasil

    Sobre este artigo

    You are visiting EY br (pt)
    br pt