Homem toca na tela do tablet com caneta digital em ponte iluminada em verde

Como o uso atual da IA que prioriza a integridade cria confiança para o futuro

Tópicos relacionados

O Relatório Global de Integridade 2024 da EY destaca a importância de um plano de uso de IA que aproveite seu potencial e mitigue os riscos.

Este artigo faz parte do  EY Global Integrity Report 2024.


Em resumo

  • Cinquenta e quatro por cento das organizações dizem que estão usando ou planejam adotar a IA nos próximos dois anos. Desses, apenas 40% têm medidas em vigor para gerenciar seu uso.
  • A IA pode ajudar os líderes a desenvolver novos insights e capacitar uma melhor tomada de decisões. Mas eles precisam equilibrar isso com o risco potencialmente caro da IA.
  • As organizações precisam de uma abordagem que priorize a integridade para usar a IA que aborde o cenário regulatório em evolução e os riscos do “desejo da IA” ou da “lavagem da IA”.

Ainteligência artificial (IA) tem o poder de transformar fundamentalmente quase todos os aspectos de como as organizações operam. Especificamente, há muitos sucessos significativos em torno do uso da IA que impactam as atividades comerciais diárias. No entanto, apesar de todo o seu potencial, os riscos associados ao uso da IA estão evoluindo rapidamente. Vimos casos em que a IA foi usada para influenciar adversamente os processos de negócios, se passar por indivíduos e entidades e levar a uma tomada de decisão tendenciosa.

Para que as organizações aproveitem totalmente o potencial da IA e gerenciem os riscos associados, elas precisarão incorporar uma agenda de integridade em sua estratégia de uso da IA. Ele deve apoiar comportamentos positivos em torno de uma governança eficaz, controles de compliance robustos, insights de dados qualitativos e quantitativos e uma cultura corporativa que prioriza a integridade.

De acordo com o Edelman Trust Barometer de 2024, as pessoas confiam nas empresas mais do que nas organizações não governamentais (ONGs) ou no governo (59%, 54% e 50%, respectivamente) para garantir que as inovações sejam seguras, compreendidas, benéficas e acessíveis. Mesmo assim, um nível de confiança de 59% nas empresas deixa um espaço considerável para melhorias. Todas as entidades, privadas e públicas, precisam fazer mais para criar confiança no uso ético da IA.

À medida que a adoção da IA acelera, as organizações lutam para descobrir como usá-la

As organizações continuam adotando a IA em um ritmo acelerado. As conclusões do Relatório Global de Integridade da EY de 2024 sugerem que as organizações estão enfrentando a ideação, o desenvolvimento e a implantação da IA para transformar seus negócios. Em toda a organização, pouco mais de um quarto (29%) afirma estar usando ferramentas habilitadas por IA em seus negócios e operações. Outro quarto (25%) afirma que planeja fazer isso nos próximos dois anos.

O uso da IA nas organizações
dos entrevistados globais dizem que estão usando ferramentas habilitadas para IA ou planejam fazer isso nos próximos dois anos.

Nas empresas, a TI é a primeira a adotar, com 42% usando ferramentas habilitadas para IA. As funções de compliance (31%) e financeiras (33%) também estão tomando medidas ousadas. Enquanto isso, a auditoria interna (23%) e a jurídica (14%) estão atrasadas no uso ativo da IA, mas muitos têm planos de se atualizar nos próximos dois anos.

Os mercados emergentes estão à frente na gestão e proteção do uso da IA

Independentemente de as organizações estarem nos estágios de planejamento ou já usarem ativamente a IA, cerca de quatro em cada 10 implementaram medidas para gerenciar sua implantação e uso. Curiosamente, os mercados emergentes parecem mais maduros em sua compreensão e responsabilidades em relação à IA. Além disso, 51% dos executivos em mercados emergentes dizem que receberam treinamento ou orientação de sua organização sobre os usos ou riscos permitidos da IA, contra 35% dos executivos em mercados desenvolvidos. As taxas no Oriente Médio, Índia e Norte da África (60%), Extremo Oriente Asiático (59%) e América do Sul (54%) são significativamente maiores do que na Europa Ocidental (35%), América do Norte (32%) e Oceania (28%).

Isso faz sentido, já que grande parte da base de talentos e dos conjuntos de habilidades técnicas estão predominantemente em mercados emergentes, proporcionando maior flexibilidade e velocidade de adoção. Além disso, os mercados emergentes têm uma mentalidade de startup robusta e são hábeis em capitalizar conceitos de tecnologia emergentes. Por outro lado, organizações maiores em mercados maduros geralmente precisam lidar com uma estrutura que pode retardar a adoção.

Os mercados emergentes estão liderando o fornecimento de orientação para o uso da IA
dos entrevistados em mercados emergentes dizem que receberam treinamento ou orientação de sua organização sobre os usos ou riscos permitidos da IA, contra 35% dos executivos em mercados desenvolvidos.

As organizações precisam de um plano abrangente para o uso ético da IA e dos recursos para implementá-la

Dada a crescente expectativa dos reguladores de passar de relatórios corporativos manuais, como planilhas e processos baseados em e-mail, para monitoramento e relatórios dinâmicos, em tempo real ou quase em tempo real,1 as organizações precisarão agir mais rápido do que o previsto na adoção de ferramentas de IA. O volume de dados gerados, combinado com a necessidade de informações em tempo real para impulsionar a estratégia de negócios e os requisitos regulatórios cada vez mais complexos, significa que as ferramentas habilitadas por IA logo se tornarão algo que as organizações precisam ter agora, em vez de algo agradável de ter no futuro. Ao mesmo tempo, com o aumento da fiscalização regulatória e dos litígios relacionados à IA, eles precisarão executar um plano para gerenciar os riscos associados ao uso da IA.

As organizações precisam criar estruturas de governança abrangentes para o uso ético da IA — de acordo com o Relatório de Integridade Global da EY 2024, isso é algo que elas admitem ser desafiador, dado o ritmo em que a IA está evoluindo. Eles precisarão trabalhar rapidamente para desenvolver políticas, procedimentos e tecnologia de apoio, bem como as habilidades adequadas entre seus funcionários, para incorporar a integridade em sua agenda de IA.

1

Capítulo 1

Os líderes do jurídico e de compliance veem os riscos e o potencial da IA

Os entrevistados do jurídico e de compliance estão entusiasmados com o que a IA pode fazer por eles, mas lutam para garantir a integridade da adoção da IA.

Executivos do jurídico e compliance veem inúmeras oportunidades de casos de uso e estão entusiasmados com o potencial que a IA pode trazer para suas funções. No entanto, a baixa adoção geral da IA na auditoria jurídica e interna sugere que a segunda e a terceira linhas de defesa da organização não estão se mantendo atualizadas com o uso da IA no resto da organização. Observamos essa mesma situação com o aumento do big data e da automação robótica de processos (RPA) em anos anteriores; as funções jurídicas, de compliance e de auditoria interna estavam acompanhando o uso da análise de dados pela organização.

Onde as funções jurídicas e de compliance veem potencial para o uso da IA

Os entrevistados do jurídico e de compliance no Relatório Global de Integridade 2024 da EY citam a melhoria contínua, o monitoramento contínuo e as avaliações de risco como as principais atividades de compliance de rotina mais adequadas ao uso da IA. Além disso, eles dizem que o maior impacto da IA no compliance está centrado na coleta avançada de dados, manipulação e análise de riscos em conjuntos de dados correlacionados (40%), monitoramento e alteração ativos (37%) e atividades de pontuação de risco (34%).

Impacto da IA na função de compliance
dos entrevistados do jurídico e de compliance dizem que o maior impacto da IA no compliance está na coleta avançada de dados, na manipulação e na análise de riscos em conjuntos de dados correlacionados.

As equipes da EY viram muitos usos bem-sucedidos da IA nas funções jurídicas e de compliance por meio de sua experiência no suporte a clientes em todo o mundo. Por exemplo, as ferramentas generativas de IA (GenAI) podem pesquisar e resumir rapidamente grandes massas de informações, redigir contratos, realizar análises de primeira instância e realizar determinados procedimentos de descoberta eletrônica, aumentando consideravelmente a precisão e a eficiência na execução de tarefas rotineiras. A IA também pode ajudar os líderes de compliance a desenvolver novos insights, capacitando uma melhor tomada de decisões. Os casos de uso específicos da IA em funções jurídicas e de compliance incluem:

  • Monitorando mudanças regulatórias e analisando dados internos para identificar possíveis lacunas de compliance
  • Simplificando o processo de due diligence automatizando verificações de antecedentes e análises financeiras de terceiros para detectar sinais de alerta
  • Melhorar a avaliação de risco analisando transações financeiras, comunicações e outros dados para detectar padrões e anomalias
  • Geração de alertas em tempo real de atividades de bandeira vermelha e triagem de casos de possível má conduta
  • Reduzindo consideravelmente o custo e o tempo para minerar grandes conjuntos de dados usando modelos preditivos para realizar análises de e-mails e documentos em resposta a consultas regulatórias, intimações e litígios
  • Identificar e extrair ou editar automaticamente informações privadas e privilegiadas em conjuntos de dados inteiros
  • Fornecendo respostas sob demanda às consultas de compliance dos funcionários, referenciando políticas corporativas e dando instruções “como fazer” por meio de chatbots de IA

Apesar do potencial empolgante da IA, os executivos do jurídicos e de compliance desconfiam dos principais riscos que podem estar impedindo que eles implementem totalmente a IA em suas funções. Os dois principais desafios que eles citam incluem dados inconsistentes ou ausentes para alimentar os modelos de IA e a falta de experiência interna.

Os desafios na proteção da integridade da adoção da IA em toda a organização podem levar ao “desejo da IA” ou à “lavagem da IA”

Com a IA subindo para o nível da diretoria e com o potencial de se tornar tão visível quanto, por exemplo, a cibersegurança para as organizações, a responsabilidade pela integridade e confiança no uso da IA por uma organização recai em grande parte sobre os ombros do jurídico e do compliance, com o apoio e a colaboração de equipes multifuncionais. Eles não são apenas responsáveis por gerenciar seus próprios riscos de integridade de IA, mas também por testar o compliance e proteger a qualidade dos padrões de integridade da organização à medida que a IA é implementada em toda a empresa — atividades que devem ser incorporadas a um processo operacional mais amplo e aplicável dentro da estrutura de governança de IA.

No entanto, se o jurídico e o compliance estão enfrentando dificuldades para lidar com os riscos de integridade do uso da IA em suas próprias funções, isso sugere que elas têm o desafio de garantir que as ferramentas habilitadas por IA em toda a organização sejam usadas de acordo com a estrutura interna de governança de IA da organização e cumpram os regulamentos jurisdicionais ou requisitos legais.

Esses desafios podem levar ao desejo da IA, em que a gerência exagera o uso da IA porque espera ou acredita, mas não pode verificar, a forma como a organização está usando a IA. Há também o risco mais sinistro de lavagem da IA, em que a organização deliberadamente faz representações imprecisas de como está usando a IA. Seja de forma inadvertida ou intencional, o desejo e a lavagem da IA podem levar a litígios. Uma série de novas reivindicações já estão sendo feitas. Por exemplo, nos EUA, a Comissão de Valores Mobiliários (SEC) acusou recentemente dois consultores de investimento por fazerem declarações falsas e enganosas sobre o uso relatado de IA. Ambas as empresas concordaram em fazer um acordo, pagando USD 400.000 em penalidades civis totais.

Embora seja tentador aproveitar a onda de entusiasmo em torno do potencial da IA, uma forte cultura de integridade garante que as quebras de confiança relacionadas ao uso da IA pela organização sejam a exceção e não a norma. Isso é cada vez mais importante, dado o aumento das ações de fiscalização contra tais violações.

O ritmo acelerado da evolução da IA está colocando a regulamentação da IA no topo da agenda dos formuladores de políticas

Na UE, alguns estados membros estão procurando aumentar o uso do reconhecimento facial entre suas forças policiais. No entanto, o Parlamento Europeu adotou recentemente restrições mais rígidas como parte da Lei de Inteligência Artificial.2  Essa lei, que entrou em vigor em 1º de agosto de 2024, é a regulamentação de IA mais desenvolvida globalmente e terá efeito extraterritorial e multas pesadas, tornando-a relevante para todas as organizações que fazem negócios em ou com países europeus. A China, que foi um dos primeiros países a implementar regulamentações de IA, está atualmente expandindo seus vários regulamentos e políticas aplicáveis a usos específicos de IA. A China também adotou as recomendações da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) sobre a ética da IA e é parte dos Princípios de IA da Organização para Cooperação e Desenvolvimento Econômico (OCDE).3  Na Índia, o governo está pedindo às empresas de tecnologia que obtenham permissão explícita antes de lançar publicamente ferramentas de IA e alertou as empresas contra o uso de produtos de IA que poderiam gerar respostas que “ameacem a integridade do processo eleitoral”. Isso representa um retrocesso de sua posição declarada em 2023 de adotar uma abordagem direta à IA.4  Enquanto isso, não é provável que os EUA aprovem uma nova legislação federal sobre IA em um futuro próximo, mas reguladores como a Federal Trade Commission (FTC) responderam às preocupações do público sobre o impacto da GenAI abrindo amplas investigações em algumas plataformas de IA.5  Também há muita legislação estadual e local específica dos EUA em vigor ou sendo considerada.


Como a IA está evoluindo rapidamente de maneiras que nem sempre são previsíveis, os reguladores estão lutando para acompanhar o ritmo. Isso impõe às empresas o ônus de adotar verificações e contrapesos rigorosos que vão além do compliance . A cultura de integridade pode ajudar as organizações a chegarem lá. Especificamente, as empresas podem e estão indo além do compliance, adotando ações como a criação de forças-tarefa de IA responsáveis que incluem uma variedade de funcionários, que analisam questões como o uso ético da IA. As organizações também estão criando políticas com processos e controles relacionados que abordam esses problemas.

Isso pode ser um desafio para as organizações, uma vez que os conjuntos de habilidades precisam evoluir junto com essas novas tecnologias. À medida que as organizações conduzem uma agenda mais focada na IA, há uma tendência contínua de que esses conjuntos de habilidades mudem das funções tradicionalmente de back-office relacionadas à tecnologia para um papel mais proeminente nas funções de negócios e em toda a empresa. As organizações precisam ser capazes de preencher a lacuna entre a tecnologia e o caso de uso da função comercial. Os exemplos podem incluir ter um profissional de tecnologia de IA trabalhando junto com a função jurídica para compartilhar conhecimento e compreensão de forma compreensível sobre os benefícios técnicos e os principais riscos em casos de uso ou processos específicos.

2

Capítulo 2

Seis maneiras pelas quais os líderes podem adotar uma abordagem que prioriza a integridade no uso da IA

As organizações devem ter um plano abrangente e uma abordagem sistemática para o uso ético e compatível da IA.

Dado o potencial significativo da IA de transformar fundamentalmente o cenário de negócios, as organizações devem ter um plano abrangente e implementar uma abordagem sistemática para o uso ético e compatível da IA. Aqui estão seis maneiras pelas quais as organizações podem adotar uma abordagem que prioriza a integridade ao usar a IA:

1. Avalie a estratégia de uso da IA

Se a organização já implementou a IA ou planeja implementá-la no curto prazo, é importante entender sua maturidade atual no gerenciamento do uso da IA. Uma avaliação de maturidade de IA pode ajudar a identificar lacunas críticas. Por exemplo, quando uma empresa farmacêutica global conduziu uma avaliação de compliance de uso de IA, ela descobriu que uma de suas maiores lacunas era a ausência de uma estrutura consistente de governança de IA.

2. Desenvolva uma política formal de uso de IA e os meios para implementá-la

A governança é a âncora para permitir o uso seguro, sustentável, responsável e transparente da IA. Embora a criação de uma estrutura de governança de IA possa ser útil, ela geralmente é voluntária ou aplicada de forma inconsistente. Uma abordagem mais construtiva é desenvolver uma política formal — e aplicável — de uso da IA, acompanhada dos meios apropriados para implementá-la e monitorá-la. A política deve dar atenção específica à definição de princípios éticos de IA para a organização; estabelecer diretrizes para respeitar os direitos, a segurança e a privacidade das pessoas; garantir a imparcialidade, precisão e confiabilidade da produção de IA; e proteger a segurança dos dados e modelos subjacentes.

3. Monte uma equipe multifuncional

Para que uma política de uso de IA seja mais eficaz, várias partes interessadas em toda a organização (TI, privacidade e segurança da informação, compliance, jurídico, inovação, finanças e funções de auditoria interna) precisam trabalhar juntas para avaliar os casos de uso da IA, os riscos associados e as barreiras apropriadas. As organizações devem estabelecer um comitê de governança para garantir que vários aspectos dos riscos de IA sejam de propriedade das equipes relevantes e tenham implicações em diferentes casos de uso. Fora do comitê de governança, a equipe multifuncional pode monitorar a aplicação consistente da abordagem de governança e gerenciamento de riscos em toda a organização. Cada equipe desempenha um papel diferente no ciclo de vida da IA e no gerenciamento de uso. É somente trabalhando em conjunto que os riscos relevantes de IA podem ser gerenciados de forma eficaz de ponta a ponta.

4. Crie um plano regulatório e de resposta a litígios para IA

Um plano regulatório e de resposta a litígios para IA é a próxima etapa do planejamento de governança. Com os ambientes legais e regulatórios se tornando mais desafiadores, especialmente no que diz respeito à IA, as organizações devem estar preparadas com um plano de resposta para gerenciar esses eventos de crise. Isso é especialmente importante no caso de uma reclamação de desejo ou lavagem de IA contra sua organização. Caso surja um problema, o uso da IA pela organização será minuciosamente examinado. As organizações precisam saber quem precisa estar envolvido, onde estão os dados e quem é responsável por eles. Eles precisarão passar por um programa de resposta completo para coletar os artefatos relevantes e demonstrar, de uma perspectiva técnica, como a organização está usando a IA. É um processo caro que envolve a contratação de advogados, a revisão de modelos e registros e a possibilidade de apresentar todos esses registros ao regulador. É importante reconhecer que essa não é uma solicitação de intimação tradicional. Nas intimações tradicionais, as organizações podem precisar produzir e-mails. Em litígios de IA, eles precisam ser capazes de produzir algoritmos.

5. Otimize a governança e os processos de dados

No Relatório Global de Integridade da EY de 2024, os executivos citaram feeds de dados inconsistentes ou incompletos nos modelos de IA como seu desafio número um na implantação da IA na função de compliance . Para que os profissionais jurídicos e de compliance— e, sem dúvida, a força de trabalho em geral — confiem nos dados, as organizações precisam ter uma compreensão clara e completa de seus dados. Isso deve incluir mapeamento de dados e linhagem para saber de onde eles vêm, bem como seu nível de qualidade e limitações.

6. Crie um inventário de todas as ferramentas de IA em uso

As organizações devem ter ou criar um inventário de todas as ferramentas de IA e aprendizado de máquina (ML) em uso. À medida que os recursos de IA da organização amadurecem, ela pode se concentrar na criação de uma infraestrutura escalável, flexível e segura que possa gerenciar com segurança um portfólio de algoritmos de IA.

A velocidade com que a IA está avançando está apenas acelerando. Considerando todos os conceitos e componentes que as organizações devem considerar para não apenas implementar a IA, mas também incutir confiança nela, as organizações devem desenvolver uma abordagem coesa que priorize a integridade. Esforços ad hoc para perseguir riscos e desafios após o fato não serão suficientes.

Uma estratégia robusta de uso de IA baseada em uma estrutura de governança forte com políticas e procedimentos claramente definidos, controles alinhados aos protocolos de governança, governança de dados e processos, e uma equipe multifuncional que possa não apenas impulsionar a implantação da IA, mas também defender uma cultura de integridade em torno da IA, contribuirão para uma agenda de IA que priorize a integridade, que aproveite todo o potencial da IA e mitigue o risco.


Sumário

O Relatório de Integridade Global da EY de 2024 destaca que, à medida que os avanços na IA aceleram, os líderes admitem que estão lutando para acompanhar onde e como a IA está sendo implementada na organização. Portanto, é fundamental que os líderes estabeleçam uma estratégia coesa de uso da IA que priorize a integridade, baseada em uma forte estrutura de governança para aprimorar o potencial da IA, mitigar os riscos e criar confiança no uso ético da IA.

Artigos relacionados

Como a confiança pode sobreviver sem integridade?

O Relatório de Integridade Global EY de 2024 revela que as rápidas mudanças e a incerteza econômica tornam mais difícil para as empresas agirem com integridade. Leia nossa análise.

06 jun. 2024 EY Global

Como equilibrar oportunidades e riscos na adoção de tecnologias disruptivas

A adoção de tecnologias disruptivas constitui um desafio fundamental para as organizações que buscam promover uma estratégia de conformidade mais sólida e, ao mesmo tempo, adotar a inovação. Saiba mais.

30 nov. 2023 EY Global + 1

    Sobre este artigo

    You are visiting EY br (pt)
    br pt