EY se refiere a la organización global, y puede referirse a una o más, de las firmas miembro de Ernst & Young Global Limited, cada una de las cuales es una entidad legal independiente. Ernst & Young Global Limited, una compañía británica limitada por garantía, no brinda servicios a los clientes.
Cómo EY puede ayudar
-
Nuestro enfoque de consultoría para la adopción de la IA y la automatización inteligente está centrado en el ser humano, es pragmático, se centra en los resultados y es ético.
Leer más
Una vez cumplidas estas condiciones para la confianza de la IA, la organización puede ahora pasar a la siguiente capa de controles y equilibrios.
Para lograr y mantener realmente la confianza en la IA, una organización debe comprender, gobernar, ajustar y proteger todos los componentes integrados dentro y alrededor del sistema de IA. Estos componentes pueden incluir fuentes de datos, sensores, firmware, software, hardware, interfaces de usuario, redes, así como operadores y usuarios humanos.
Esta visión holística requiere una comprensión más profunda de los riesgos únicos en toda la cadena de IA. Hemos desarrollado un marco para ayudar a las empresas a explorar los riesgos que van más allá de las matemáticas y los algoritmos subyacentes de la IA y se extienden a los sistemas en los que está integrada la IA.
Nuestra "visión de sistemas" única permite a la organización desarrollar cinco atributos clave de un ecosistema de IA confiable:
- Transparencia: desde el principio, los usuarios finales deben saber y comprender cuándo están interactuando con la IA. Se les debe notificar adecuadamente y se les debe dar la oportunidad de (a) seleccionar su nivel de interacción y (b) dar (o negar) su consentimiento informado para cualquier dato capturado y utilizado.
- "Explicabilidad": el concepto de explicabilidad está creciendo en influencia e importancia en la disciplina de la IA. En pocas palabras, significa que la organización debe ser capaz de explicar claramente el sistema de IA; es decir, el sistema no debe superar la capacidad de los humanos para explicar sus métodos de entrenamiento y aprendizaje, así como los criterios de decisión que utiliza. Estos criterios deben estar documentados y fácilmente disponibles para que los operadores humanos los revisen, desafíen y validen en todo el sistema de IA a medida que continúa "aprendiendo".
- Sesgo: los sesgos inherentes a la IA pueden ser inadvertidos, pero pueden ser muy perjudiciales tanto para los resultados de la IA como para la confianza en el sistema. Los sesgos pueden tener su origen en la composición del equipo de desarrollo, en los datos y en los métodos de formación/aprendizaje, o en otras partes del proceso de diseño e implementación. Estos sesgos deben identificarse y abordarse a lo largo de toda la cadena de diseño de la IA.
- Resiliencia: los datos utilizados por los componentes del sistema de IA y los propios algoritmos deben protegerse contra las amenazas cambiantes de acceso no autorizado, corrupción y ataque.
- Rendimiento: los resultados de la IA deben estar alineados con las expectativas de las partes interesadas y rendir al nivel deseado de precisión y coherencia.
Aquellas organizaciones que anclan su estrategia y sistemas de IA en estos principios rectores y atributos clave estarán mejor posicionadas para el éxito de sus inversiones en IA. Lograr este estado de IA confiable no solo requiere un cambio de mentalidad hacia un diseño y una gobernanza de IA más decididos, sino también tácticas específicas diseñadas para generar esa confianza.