Qualquer investimento em tecnologia de conformidade deve incluir salvaguardas para garantir que a tecnologia esteja funcionando de forma adequada e eficaz. Por exemplo, o aprendizado de máquina pode ajudar uma empresa a detectar padrões de fraude em transações de vendas ou sinalizar fornecedores problemáticos, mas o uso de dados tendenciosos ou insuficientes pode resultar em falsos positivos.
Também os criminosos estão aproveitando a IA. Os sistemas de IA podem desenvolver malware sofisticado, aprender com ataques malsucedidos e criar campanhas de phishing que acabam inspirando mais confiança nas potenciais vítimas. As empresas que utilizam IA e automação para detectar esses ataques e responder a eles descobrem violações de dados muito mais rapidamente do que aquelas que não usam, reduzindo o custo de uma violação em quase US$ 2 milhões, de acordo com uma pesquisa realizada pela IBM.8 Apesar disso, apenas metade das organizações estudadas planejava aumentar o investimento em segurança após uma violação.
As organizações também devem considerar gastar mais em controles internos, que restringem o acesso aos dados e fornecem prestação de contas nesse sentido. Controles inadequados são identificados como o risco interno mais apontado, conforme relatado na pesquisa EI Studios 2023 encomendada pela EY. A incorporação de fluxos de trabalho com controles integrados reduz erros e fraudes, criando scorecards de conformidade digitalizados que fornecem insights detalhados sobre as principais áreas de risco.
A análise avançada de dados também permite que a empresa integre o gerenciamento de riscos à estratégia e à gestão de desempenho. Por exemplo, uma análise abrangente da exposição ao risco para cenários emergentes ajuda o conselho de administração a determinar se suas estratégias e modelos de negócios são viáveis, conforme descrito na EY Global Board Risk Survey 2023, que constatou que os conselhos de administração altamente resilientes potencializam os dados e a tecnologia de forma eficaz para detectar riscos antecipadamente e melhorar a tomada de decisões.
Desenvolvimento de uma estratégia sustentável de dados e tecnologia que se alinhe aos valores principais
O uso responsável da tecnologia talvez nem sempre seja uma prioridade estratégica para muitas empresas. Quase metade dos entrevistados na pesquisa EI Studios 2023, encomendada pela EY, relatou que sua organização não possui uma estratégia corporativa para a privacidade de dados, que é bem regulamentada na maioria das jurisdições e requer uma sólida governança de dados.
As organizações precisam desenvolver uma estratégia e uma visão abrangentes para gerenciar a tecnologia e os dados de forma ética, assim como muitas empresas fizeram com sua agenda de sustentabilidade. Os avanços nessa área são alarmantes. Menos de um terço dos administradores acredita que sua supervisão dos riscos decorrentes da transformação digital é muito eficaz, de acordo com a EY Global Board Risk Survey (GBRS) 2023.
Uma declaração da missão se faz essencial para mostrar como uma empresa gerencia a tecnologia e os dados de forma adequada e defensável, alinhada com seus valores fundamentais. Por exemplo, a Adobe comunicou claramente seu compromisso com o avanço do uso responsável da tecnologia para o bem da sociedade. Seus Princípios Éticos de IA descrevem as ações que o fabricante de software está realizando para evitar vieses prejudiciais à IA e alinhar seu trabalho com seus valores.9
A abordagem da Microsoft para criar uma IA responsável e confiável é orientada por perspectivas éticas e de prestação de contas.10 A empresa pede que os desenvolvedores de tecnologia estabeleçam órgãos de revisão interna para fornecer supervisão e orientação para que seus sistemas de IA sejam inclusivos, confiáveis, justos, responsáveis, transparentes, privados e seguros.
O uso ético da tecnologia não é possível sem a promoção de uma cultura em que a integridade seja tão importante quanto os lucros. Por exemplo, o Grupo Volkswagen afirma que a integridade e a conformidade têm a mesma prioridade estratégica e operacional que a receita de vendas, o lucro, a qualidade do produto e a atratividade do empregador.11
O custo médio de uma violação de dados cresceu para quase US$ 4,5 milhões em 2023, de acordo com um estudo da IBM.12 As multas regulatórias também estão aumentando, com a Meta sendo punida com uma sanção de € 1,2 bilhão por violações do GDPR.13
As organizações que buscam criar uma estratégia ética e sustentável para o uso de tecnologia e dados podem adaptar medidas usadas para outras iniciativas de sustentabilidade, como proteção ambiental e boa governança. Isso inclui a definição de metas e orçamentos, a medição do desempenho e a divulgação pública do progresso. Esforços consideráveis em prol da sustentabilidade podem contribuir muito para abordar as preocupações dos stakeholders e até mesmo atrair candidatos a emprego.
Algumas atividades relacionas a sustentabilidade, como ações de natureza climática, já estão passando de compromissos voluntários para práticas de conformidade à medida que os órgãos reguladores estabelecem exigências de divulgação para companhias de capital aberto.14 Espera-se que a estratégia corporativa e os princípios da tecnologia ética tenham o mesmo foco da agenda de sustentabilidade, caso ainda não o tenham.
Garantir a confiança na IA com uma abordagem robusta de governança é uma das cinco iniciativas estratégicas que as equipes da EY recomendam para as organizações que buscam maximizar o potencial da IA e, ao mesmo tempo, enfrentar seus desafios. Essa abordagem inclui:
- Instituir um conselho ou comitê de IA em conjunto com princípios éticos para orientar políticas e procedimentos
- Acompanhar todas as regulamentações existentes relevantes e garantir que todos os novos casos de uso estejam em conformidade
- Definição de controles para lidar com riscos emergentes
- Preparação para legislação pendente
Priorizar o uso ético da IA e de outras tecnologias emergentes significa dizer que os líderes devem ter cuidado para não cair na cilada do "falar e de fato fazer", em que eles falam da boca para fora na hora de fazer a coisa certa. Essa lacuna ficou claramente aparente no EY Global Integrity Report 2022, no qual 58% dos membros do conselho disseram que ficariam muito ou razoavelmente preocupados se suas decisões estivessem sujeitas ao escrutínio público e 42% relataram que sua empresa está disposta a tolerar comportamentos antiéticos de colaboradores de alto escalão ou com mais senioridade.
O crescimento da GenAI traz novas oportunidades e também novos riscos
Imagine duas portas - uma rotulada como "oportunidade tecnológica" e a outra como "risco tecnológico". Qual porta você abre primeiro? O que é mais importante para sua organização? O que bloqueia o seu caminho e quem pode estar lhe atrapalhando?
A GenAI tornou mais difícil do que nunca equilibrar oportunidade e risco ao de adotar uma tecnologia. Sua ampla adoção em 2023 aumentou a conscientização sobre o potencial de todos os tipos de IA, juntamente com suas deficiências. As pessoas de modo geral querem saber como a IA pode ser impedida de criar informações falsas, resultados tendenciosos e tirar seus empregos.
Os modelos de linguagem ampla (LLMs), como o ChatGPT, estão se tornando um divisor de águas para as áreas jurídicas e de conformidade com sua capacidade de analisar e resumir um grande número de documentos. Mas os profissionais bem versados em riscos de privacidade e segurança cibernética podem ter dificuldades para avaliar as novas ameaças decorrentes da IA. Já vimos advogados citarem casos inventados pela IA, o que torna essencial que os resultados sejam validados por outras ferramentas e/ou pessoas inteligentes
As organizações que buscam reduzir os riscos da GenAI proibindo seu uso podem ver essa estratégia sair pela culatra. Mais de um quarto dos colaboradores que responderam a uma pesquisa on-line da Reuters-Ipsos em julho de 2023 disseram que usavam regularmente o OpenAI ChatGPT no trabalho, embora apenas 22% desses usuários tenham dito que seus empregadores permitiam seu uso explicitamente.15 Limitar os colaboradores às ferramentas GenAI aprovadas pela empresa pode resultar em soluções alternativas, o que torna fundamental o desenvolvimento de políticas, normas e procedimentos, independentemente de como a IA é acessada em toda a organização.
Mesmo as empresas que autorizam o uso da GenAI podem não ter uma visão completa de como ela está sendo implantada e dos riscos associados. Mais da metade das falhas de IA vem da "IA sombra" ou de ferramentas de terceiros, que são usadas por 78% das organizações em todo o mundo, de acordo com a pesquisa do MIT.16
As empresas que buscam investimentos em GenAI devem se concentrar nos problemas que estão tentando resolver e na função que os dados desempenharão. A organização dispõe dos dados necessários? Você entende como os dados foram gerados, suas limitações e o que eles representam? Os dados podem ser usados para criar LLMs? A falta de uma boa governança de dados pode causar uma série de riscos, desde resultados tendenciosos até violações de dados. Mesmo que uma empresa faça tudo isso corretamente, muitas vezes há falha na comunicação sobre as iniciativas de uma forma que a liderança, os investidores, os colaboradores e outros stakeholders de fato entendam.
A realidade é que, independentemente da porta que você abrir primeiro, acabará na mesma sala. Tecnologias emergentes com potencial de mudança de jogo sempre estarão interligadas a um conjunto de riscos jurídicos e de reputação que devem ser abordados de forma estratégica.