6 Minutos de leitura 12 jan 2024
Vista superior Foto de longa exposição do lobby do escritório moderno com pessoas de negócios andando imagem de herói

Como navegar pelas tendências globais na regulamentação da Inteligência Artificial

Por EY Brasil

Ernst & Young Global Ltda.

6 Minutos de leitura 12 jan 2024
Related topics Políticas públicas AI

Mostrar recursos

  • The Artificial Intelligence (AI) global regulatory landscape (PDF)

O potencial da AI para criar um impacto humano positivo dependerá de uma abordagem responsável, centrada no ser humano, e que se concentre na criação de valor para todos.

Em resumo
  • Os legisladores estão desenvolvendo abordagens claramente diferentes sobre políticas para regular a AI.
  • A pesquisa da EY identificou cinco tendências comuns na supervisão da AI.
  • As empresas podem tomar diversas medidas para se manterem à frente do cenário regulatório de AI em rápida evolução.

Este artigo foi escrito por Nicola Morini Bianzino, Diretor Global de Tecnologia da EY; Marie-Laure Delarue, vice-presidente global de assurance; Shawn Maher, vice-presidente global de políticas públicas da EY; e Ansgar Koene, líder global de ética e regulamentação em AI da EY; com contribuições de Katie Kummer, vice-presidente global adjunta de políticas públicas; e Fatima Hassan-Szlamka, Diretora Associada, Políticas Públicas Globais.

As capacidades aceleradas da Inteligência Artificial Generativa (GenAI) — incluindo grandes modelos de linguagem (LLM) — bem como sistemas que utilizam dados de geolocalização em tempo real, reconhecimento facial e processamento cognitivo avançado, empurraram a regulamentação da AI para o topo das caixas de entrada dos reguladores.

Não é simples. Na Europa, por exemplo, enquanto alguns países membros queriam liberalizar o uso do reconhecimento facial por suas forças policiais, o Parlamento da UE queria impor restrições rígidas como parte da Lei de IA, o que resultou em uma maratona de negociações antes que se chegasse a um acordo de compromisso.1 Em um outro debate sobre a legislação sobre AI, o Ministério da Eletrônica e TI da Índia publicou uma forte declaração em Abril, optando contra a regulamentação da AI e afirmando que a Índia “está implementando políticas e medidas de infra-estruturas necessárias para cultivar um setor de AI robusto, mas não pretende introduzir legislação para regular o seu crescimento.”2 No entanto, em Maio, o Ministro de TI anunciou que a Índia está planejando regulamentar plataformas de AI como o ChatGPT e está “considerando um quadro regulamentar para a AI, que inclui áreas relacionadas com preconceitos de algoritmos e direitos de autor”.3 Da mesma forma, embora não seja provável que os EUA aprovem uma nova legislação federal sobre IA em breve, a Ordem Executiva emitida pelo governo Biden em outubro de 2023 enfatizou as preocupações com a segurança, a proteção e os direitos civis como considerações importantes na aquisição federal de IA, e órgãos reguladores como a Comissão Federal de Comércio (FTC) responderam às preocupações públicas sobre o impacto da IA geradora, abrindo investigações amplas em algumas plataformas de IA.4

A AI está transformando uma gama diversificada de indústrias, desde finanças e a indústria de manufatura, até à agricultura e aos cuidados de saúde, melhorando as suas operações e remodelando a natureza do trabalho. A AI está permitindo uma gestão e uma logística de frota mais inteligentes, otimizando a previsão de energia, criando um uso mais eficiente de leitos hospitalares através da análise de dados de pacientes e modelagem preditiva, melhorando o controle de qualidade na fabricação avançada e criando experiências personalizadas para o consumidor. Também está sendo adotado por governos que reconhecem a sua capacidade de prestar melhores serviços aos cidadãos com custos mais baixos para os contribuintes. Com os setores privados globais investindo na AI, os níveis de investimento são agora 18 vezes superiores aos de 2013.A AI é potencialmente um poderoso motor de crescimento econômico e um facilitador essencial dos serviços públicos.

No entanto, os riscos e as consequências não intencionais da GenAI também são reais. Um mecanismo de geração de texto que possa imitar de forma convincente uma série de registros está sujeito ao uso indevido; um software de imitação de voz pode imitar os padrões de fala de um indivíduo suficientemente bem para convencer um banco, um local de trabalho ou um amigo. Os chatbots podem trapacear nos testes. As plataformas de AI podem reforçar e perpetuar preconceitos humanos históricos (por exemplo, com base no gênero, raça ou orientação sexual), minar os direitos pessoais, comprometer a segurança dos dados, produzir informações falsas e desinformadas, desestabilizar o sistema financeiro e causar outras formas de perturbação a nível global. As apostas são altas.

Legisladores, reguladores e organismos de normalização estão começando a desenvolver quadros para maximizar os benefícios da AI para a sociedade, ao mesmo tempo que mitigam os seus riscos. Estes quadros têm de ser resilientes, transparentes e equitativos. Para fornecer uma visão geral do cenário regulatório em evolução, a organização EY (EY) analisou as abordagens regulatórias de oito jurisdições: Canadá, China, União Europeia (UE), Japão, Coreia, Singapura, Reino Unido (Reino Unido) e Reino Unido. Estados Unidos (EUA). As regras e iniciativas políticas foram provenientes do observatório de políticas de AI da Organização para a Cooperação e o Desenvolvimento Econômico (OCDE) 6 e estão listadas no apêndice do relatório completo.

Mostrar recursos

  • Baixar: O cenário regulatório global de Inteligência Artificial (AI)

Cinco tendências regulatórias em Inteligência Artificial

Reconhecendo que cada jurisdição adotou uma abordagem regulatória diferente, em linha com diferentes normas culturais e contextos legislativos, existem cinco áreas de coesão que se unem sob o amplo princípio de mitigar os potenciais danos da AI, permitindo ao mesmo tempo a sua utilização para o benefício econômico e social dos cidadãos. Estas áreas de unidade fornecem fundamentos sólidos sobre os quais podem ser construídas regulamentações detalhadas.

  1. Princípios fundamentais: A regulamentação e as orientações relativas à AI consideradas, são consistentes com os princípios fundamentais da AI definidos pela OCDE e aprovados pelo G207. Estas incluem o respeito pelos direitos humanos, a sustentabilidade, a transparência e uma forte gestão de riscos.
  2. Abordagem baseada no risco: Estas jurisdições estão a adotar uma abordagem baseada no risco para a regulamentação da AI. O que isso significa é que estão adaptando as suas regulamentações de AI aos riscos percebidos em torno da AI, a valores fundamentais como privacidade, não discriminação, transparência e segurança. Esta “adaptação” segue o princípio de que as obrigações de conformidade devem ser proporcionais ao nível de risco (risco baixo significa nenhuma ou muito poucas obrigações; riscos elevados significam obrigações significativas e rigorosas).
  3. Agnóstica e específica do setor: Devido aos diversos casos de utilização da AI, algumas jurisdições estão concentrando-se na necessidade de regras específicas do setor, além de regulamentação agnóstica do setor.
  4. Alinhamento político: As jurisdições estão implementando regras relacionadas com a AI no contexto de outras prioridades da política digital, como a cibersegurança, a privacidade dos dados e a proteção da propriedade intelectual – com a UE adotando a abordagem mais abrangente.
  5. Colaboração do setor privado: Muitas destas jurisdições estão utilizando ambientes de simulação regulamentares como uma ferramenta para o setor privado colaborar com os legisladores no desenvolvimento de regras que cumpram o objetivo principal de promover uma AI segura e ética, bem como para considerar as implicações de riscos mais elevados. inovação associada à AI, onde uma supervisão mais rigorosa pode ser apropriada.
  6. Colaboração internacional: Impulsionados por uma preocupação compartilhada com as incertezas fundamentais em relação aos riscos à segurança e à proteção representados por novos e poderosos sistemas de IA generativos e de uso geral, os países estão buscando a colaboração internacional para compreender e lidar com esses riscos.

Considerações adicionais sobre AI para os legisladores

Outros fatores para se considerar no desenvolvimento de políticas de AI incluem:

  • Garantir que os reguladores tenham acesso a conhecimento suficiente no assunto para implementar, monitorar e fazer cumprir essas políticas com sucesso
  • Garantir clareza política, se a intenção da regulamentação for regular os riscos decorrentes da própria tecnologia (por exemplo, propriedades como processamento de linguagem natural ou reconhecimento facial) ou da forma como a tecnologia de AI é utilizada (por exemplo, a aplicação de AI em processos de contratação) ou ambos
  • Examinar até que ponto as políticas e procedimentos de gestão de risco, bem como a responsabilidade pela conformidade, devem ser aplicadas a terceiros que fornecem produtos e serviços relacionados com AI

Além disso, os legisladores devem, na medida do possível, se envolver em processos multilaterais para tornar as regras de AI entre jurisdições interoperáveis e comparáveis, a fim de minimizar os riscos associados à arbitragem regulamentar – que são particularmente significativos quando se consideram as regras que regem a utilização de uma tecnologia transnacional como a AI.

Etapas de ação para empresas

Para os líderes das empresas, compreender os princípios fundamentais subjacentes às regras de AI, mesmo que essas regras não lhes sejam atualmente aplicáveis, pode servir para incutir confiança por parte dos clientes e reguladores na sua utilização da AI e, assim, proporcionar potencialmente uma vantagem competitiva no mercado. Também pode ajudar as empresas a antecipar as necessidades de governação e os requisitos de conformidade que podem ser aplicados ao seu desenvolvimento e utilização da AI, tornando-as mais ágeis.

Com base nas tendências identificadas, há pelo menos três ações que as empresas podem tomar agora para permanecerem um passo à frente do cenário regulatório da AI em rápida evolução.

  1. Entenda as regulamentações de AI em vigor nos mercados em que você opera. Você pode alinhar suas políticas internas de AI com esses regulamentos e quaisquer padrões de supervisão associados.
  2. Estabelecer estruturas e protocolos robustos e claros de governança e gestão de riscos, bem como, na medida em que for apropriado, mecanismos de responsabilização para melhorar a forma como gere as tecnologias de AI.
  3. Se Envolver no diálogo com funcionários do setor público e outros para compreender melhor o panorama regulamentar em evolução, bem como para fornecer informações e conhecimentos que possam ser úteis aos legisladores.

Para que as abordagens de governança alcancem o equilíbrio certo entre a supervisão governamental e a inovação, é importante que as empresas, os legisladores e outros stakeholders participem de conversas abertas. Todas estas partes estão testando o terreno e trabalhando para encontrar novas possibilidades que estão sendo criadas pela AI. Novas regras serão necessárias. Felizmente, como mostra a nossa análise, existe um amplo acordo entre os países sobre os princípios fundamentais que regem a utilização da AI. Neste momento único de possibilidade e perigo, agora é o momento de cooperar para transformar esses princípios em prática.

Resumo

À medida que a AI generativa começa a transformar as indústrias, os legisladores estão promulgando legislações que visão otimizar as oportunidades e, ao mesmo tempo, mitigar os riscos da tecnologia.

Explore nossos insights mais recentes sobre IA

Crie confiança, gere valor e proporcione impacto humano positivo com EY.ai – uma plataforma unificadora para transformação de negócios habilitada por AI.

Saiba mais

Sobre este artigo

Por EY Brasil

Ernst & Young Global Ltda.

Related topics Políticas públicas AI