Educação é a base da governança em inteligência artificial

4 Minutos de leitura 30 abr 2024
Por Agência EY

A Agência EY é um espaço de notícias e conteúdo jornalístico

4 Minutos de leitura 30 abr 2024

Tom Edwards, líder mundial em IA generativa da EY, destaca, em visita ao Brasil, que as empresas devem conhecer profundamente a tecnologia de IA e disseminar esse conhecimento entre os colaboradores antes de implementar seus próprios sistemas

O sistema de inteligência artificial deve ser facilmente explicável aos públicos em contato com ele, começando pelos desenvolvedores dessas aplicações, que precisam saber exatamente suas características e formas de tomada de decisão. 

“A educação constitui a base da governança em inteligência artificial. Ela começa desde o básico, mostrando para os colaboradores que não estão envolvidos nessa área – ou familiarizados com ela – os principais conceitos relacionados a essa tecnologia e os motivos que fazem dela tão importante atualmente para os negócios”, diz Tom Edwards, líder mundial em IA generativa na EY. “Ao mesmo tempo, os desenvolvedores devem saber explicar o sistema criado, tendo conhecimento do seu banco de dados, por exemplo, e demais características, inclusive decisórias. É a chamada IA explicável, um conjunto de processos e métodos que permite aos públicos envolvidos com um sistema entender e confiar nas decisões e nos resultados apontados pelos algoritmos de aprendizado de máquina”, completa.

A IA explicável, que faz parte da abordagem responsável para desenvolvimento de inteligência artificial, evita que o sistema seja considerado uma espécie de “caixa preta” por causa da impossibilidade de compreender suas decisões. Isso ocorre quando nem mesmo os engenheiros ou cientistas de dados que criaram os algoritmos conseguem entender ou explicar o que está ocorrendo, como os motivos que levaram a um resultado específico. “Tenho percebido que a educação não recebe a devida importância ao longo do processo de transformação dos negócios. As empresas precisam assegurar que haja um nivelamento básico de entendimento sobre a inteligência artificial e seus riscos e oportunidades. Somente a partir daí, os colaboradores poderão pensar em soluções efetivas em suas áreas ou funções que sejam viáveis e seguras”, observa Tom.

Credibilidade dos sistemas de IA

Dois elementos centrais que constam nos principais frameworks mundiais para gestão responsável dos sistemas de IA, como o da OCDE (Organização para Cooperação e Desenvolvimento Econômico), são “human-centric AI” e “trustworthy AI”. O primeiro diz que os sistemas de IA devem ser centrados no ser humano. Já o segundo defende que esses sistemas sejam confiáveis em todas as suas etapas e características. Ambos são, portanto, decorrência da explicabilidade, já que somente um sistema de IA que possa ser explicado com facilidade para todos os públicos traz confiabilidade por colocar o ser humano no centro e como sua razão de existir. 

Há, ainda, a ética como fator essencial e principiológico (aplicada desde a concepção desses sistemas: ethics by design), que está acima, portanto, de todos os elementos de IA. Por meio dela, ficam garantidas características como equidade e não discriminação; responsabilidade e prestação de contas (accountability); e transparência. 

Alinhamento multidisciplinar

Uma forma de assegurar a educação como base da governança é promover o alinhamento entre os diversos profissionais envolvidos na implementação dos sistemas de IA, como o CIO (Chief Information Officer), o time de privacidade e as respectivas áreas do negócio que pretendem implementar funcionalidades de IA. Há também os parceiros de negócio, ou fornecedores, que eventualmente possam estar inseridos em uma solução de IA que será criada em parceria com a organização. “A governança vai definir tudo que precisa ser feito para garantir a implementação segura e eficiente do sistema de IA, como, além da educação dos colaboradores e parceiros, a abordagem e políticas corretas”, destaca Tom.

Ainda segundo o especialista, as seguintes práticas são desejáveis: mapeamento dos riscos associados aos usos esperados do sistema e de eventuais formas de mau uso; governança dos dados utilizados; documentação sobre o funcionamento do sistema de IA e das decisões envolvidas em sua construção, implementação e uso; transparência do sistema de IA nos processos decisórios e na interpretação dos resultados; e testes que assegurem precisão, cobertura, acurácia, robustez e cibersegurança do sistema.

A inteligência artificial tem sido cada vez mais utilizada pelas empresas para inovar e tornar mais produtivo o dia a dia dos seus negócios. Há, no entanto, diversas dúvidas sobre como desenvolver e operacionalizar esses sistemas evitando os riscos que podem comprometer os resultados financeiros e a reputação das organizações. Nesse contexto, a EY lançou a série “IA aplicada aos negócios: Como utilizar essa tecnologia com segurança e governança para gerar inovação”, que, além desta reportagem, já publicou as seguintes:

IA generativa para fins tributários atende às obrigações fiscais e gera inteligência

Empresas adotam IA generativa na gestão do contencioso tributário

IA em 2024 requer fortalecimento da governança em assuntos como proteção de dados

Estudo da EY aponta cinco tendências globais para regulamentação de IA

Monitoramento por IA das emissões de metano já é realidade na indústria de gás e petróleo

Empresas precisam desde já adotar as melhores práticas de IA

Indústria de mineração encontra alternativas à abertura de minas por meio da IA

IA possibilita uso inteligente da rede de energia para aproveitar potencial das fontes renováveis

  • Termos de uso

    O material publicado pela Agência EY pode ser reproduzido de maneira gratuita desde que sejam colocados os créditos para a Agência EY e respeitados os termos de uso. Mais informações pelo e-mail ey@fsb.com.br.

Receba nossos alertas de notícias 

Fique atualizado com conteúdos produzidos pela Agência EY

Inscreva-se

Resumo

Sobre este artigo

Por Agência EY

A Agência EY é um espaço de notícias e conteúdo jornalístico