Parte de um conjunto mais amplo de ferramentas, técnicas e capacitadores da EY projetados para auxiliar no desenvolvimento e uso responsável da IA, a estrutura global de IA responsável é um conjunto flexível de princípios orientadores e ações práticas.
As equipes multidisciplinares da EY, compostas por especialistas em ética digital, profissionais de risco de TI, cientistas de dados e recursos específicos, aproveitaram a estrutura global de IA responsável para avaliar os princípios de IA da biofarmacêutica, bem como eles foram implementados e compreendidos em toda a empresa.
Sobrepusemos a estrutura global de IA responsável no modelo que o cliente já havia criado, entrevistando os principais stakeholders e revisando documentação relevante.
“Investimos tempo para entender o ambiente do cliente, e nossa experiência em governança de IA significa que também fomos capazes de fazer as perguntas certas no momento certo”, diz Catriona Campbell, Diretora de Tecnologia e Inovação de Clientes da EY UKI.
Avaliamos com que sucesso o negócio mitigou os riscos da IA ao longo de seu ciclo de vida, desde a identificação do problema até a modelagem, implantação e monitoramento contínuo.
Para determinar se o cliente desenvolveu e implementou IA de acordo com seus princípios responsáveis de IA, também avaliamos uma amostra dos principais projetos de IA, incluindo previsão, rastreamento de eventos adversos e detecção precoce de doenças.
Nossa análise descobriu que a biofarmacêutica nem sempre gerenciava os riscos específicos de IA do projeto de acordo com seus princípios responsáveis de IA. “A auditoria da EY destacou uma série de lacunas em nossa abordagem, permitindo-nos definir requisitos mínimos para equipes de negócios que trabalham com IA, para as quais já estamos trabalhando”, diz o líder de governança de IA da empresa biofarmacêutica.