Business woman, computer seo work and coding of young employee with blue light and glasses

Gobierno de la IA en auditoría interna

Temas relacionados

Desafíos y Medidas para la Integración Ética y Segura de la Inteligencia Artificial en la Auditoría Interna

En resumen

  • La integración de IA en auditoría interna requiere un gobierno ético y responsable.
  • Es fundamental establecer normas claras para la privacidad, seguridad de los datos y transparencia en el uso de la IA.
  • La supervisión y auditoría de los sistemas de IA son esenciales para garantizar su precisión, equidad y cumplimiento de normativas.

Integrar la Inteligencia Artificial (IA) en la auditoría interna presenta una serie de desafíos y riesgos. Uno de ellos es la posible dependencia excesiva de estos sistemas, lo que podría disminuir el valor del juicio humano y la capacidad analítica de los auditores. Asimismo, es fundamental abordar las preocupaciones relacionadas con la privacidad y la seguridad de los datos.

Esto resalta la relevancia de establecer un sólido gobierno de la IA. Su implementación debe ir acompañada de normas claras y mecanismos de control que garanticen un uso ético y responsable.

Las organizaciones necesitan marcos de gobernanza que incluyan lineamientos sobre privacidad y seguridad de datos, transparencia en los algoritmos, asignación de responsabilidades y preservación del criterio humano en decisiones automatizadas.

Entre las medidas para asegurar un uso adecuado de la IA se pueden considerar:

1. Códigos de ética para IA: desarrollar y seguir un código de ética puede proporcionar pautas claras para su uso responsable. Este código debe promover principios como la no causar daño (non-Maleficence) y la responsabilidad.

Otros principios éticos que deben considerarse son: prevenir hacer el mal; priorizar el bienestar humano (Beneficence); respetar a los demás; ser justo y promover la justicia; demostrar interés y sensibilidad por los demás, o solidaridad1.

2. Transparencia: los procesos y algoritmos deben ser transparentes y comprensibles para los usuarios y partes interesadas. Esto permite que las decisiones tomadas sean trazables y explicables.

3. Cumplimiento de las leyes y estándares: debe ser utilizada de acuerdo con todas las leyes y reglamentaciones aplicables, incluyendo las leyes de privacidad y protección de datos. También se deben seguir los estándares de la industria relacionados con la IA.

4. Formación y concienciación: se debe formar a los empleados sobre el uso ético. Esto implica entender cómo funciona, cómo se pueden sesgar sus resultados y cómo usarla de manera efectiva y responsable.

5. Diseño inclusivo y en busca de la diversidad: los conjuntos de datos utilizados para entrenar los modelos de IA deben ser representativos y diversos para evitar el sesgo. Además, se debe tener en cuenta la diversidad en los equipos de desarrollo y aplicación.

6. Consentimiento y privacidad: cuando se usan datos personales para alimentar sistemas de IA, se debe obtener el consentimiento de los individuos y se deben tomar medidas para proteger y respetar su privacidad.

7. Evaluación del impacto ético: similar a una evaluación de impacto ambiental, las organizaciones pueden llevar a cabo evaluaciones de impacto ético para entender las implicaciones de esta nueva tecnología antes de su implementación.

IA, privacidad y seguridad: una balanza delicada

La privacidad de los datos se refiere al derecho a controlar cómo se recopilan, utilizan y comparten nuestros datos personales. Es un derecho fundamental protegido por leyes en muchas jurisdicciones.

Por su parte, la seguridad de los datos se refiere a las medidas y prácticas adoptadas para proteger los datos contra accesos no autorizados, divulgación, alteración y destrucción.

Cuando se aplican en la auditoría interna, tanto la privacidad como la seguridad de los datos son de suma importancia. Los auditores internos necesitan acceder y analizar datos comerciales y personales sensibles y confidenciales como parte de su trabajo. Por lo tanto, es importante que existan suficientes controles para proteger esos datos y garantizar su uso apropiado.

Las soluciones de IA generalmente requieren que los datos se conviertan en información aprovechable. Sin embargo, la recopilación, el almacenamiento y el análisis de grandes volúmenes de datos pueden presentar riesgos significativos de privacidad y seguridad.

Para garantizar la privacidad de los datos, las organizaciones deben asegurarse de que la recopilación y utilización de los datos cumplen con las leyes y regulaciones pertinentes, como el Reglamento General de Protección de Datos (GDPR) en la Unión Europea2.

Deben implementar medidas para minimizar la recopilación de datos, anonimizar los datos siempre que sea posible y obtener un consentimiento informado y claro en la recopilación de datos personales.

En cuanto a la seguridad de los datos, las organizaciones deben proteger sus datos contra accesos no autorizados, fugas de datos y ataques cibernéticos.

Esto implica implementar medidas como el cifrado de datos, controles de acceso, la segmentación de la red y la monitorización de seguridad. Además, es importante ser transparente acerca de cómo se utilizan los datos en la IA, es importante que las empresas socialicen cómo funcionan sus sistemas, cuáles son los riesgos y beneficios y cuáles son las medidas de control.

Monitoreo del desempeño de la IA

El seguimiento continuo del desempeño de los sistemas automatizados es fundamental para garantizar su eficacia. Las empresas deben implementar métricas de rendimiento que evalúen la precisión de los modelos, la calidad de los datos y el impacto de las decisiones automatizadas.

Estas métricas deben revisarse periódicamente para detectar desviaciones, sesgos o usos indebidos. Además, es esencial que los resultados sean verificados por humanos para asegurar su exactitud y fiabilidad.

Es importante recordar que estas tecnologías no son soluciones universales. Dependiendo del contexto y del tipo de auditoría, pueden ser necesarios enfoques y técnicas específicos. Por ello, es crucial evaluar constantemente su desempeño y ajustarlas según sea necesario para que sigan generando valor.

Como se puede observar, estas herramientas ofrecen múltiples oportunidades para optimizar la auditoría interna, pero su implementación debe ir acompañada de una gobernanza sólida y un monitoreo riguroso. Esto garantizará no solo la creación de valor, sino también la integridad y fiabilidad de los procesos de auditoría.

Auditar la IA: un nuevo desafío

Con la creciente adopción de estas tecnologías, los auditores internos deben adquirir nuevas habilidades para evaluar estos sistemas.

Esto implica comprender cómo se entrenan los modelos, cómo se gestionan los datos y cómo se mitigan los riesgos asociados.

Auditar estos sistemas no solo implica verificar la precisión y equidad de los modelos, sino también revisar las políticas y prácticas relacionadas con la privacidad y seguridad de los datos.

Los auditores deben asegurarse de que existan controles suficientes para proteger la información sensible y garantizar que las medidas adoptadas sean eficaces y cumplan con las leyes y regulaciones aplicables.

 


Resumen

La incorporación de tecnologías emergentes ofrece oportunidades importantes para mejorar la auditoría interna, pero también plantea desafíos, especialmente en cuanto a la privacidad y seguridad de los datos. Superar estos obstáculos requerirá un esfuerzo coordinado por parte de las organizaciones y la implementación de marcos sólidos de gobernanza y control.

Nota para el lector: este Artículo fue desarrollado con el apoyo del asistente de Inteligencia Artificial de EY (EYQ).

Se utilizaron preguntas o “prompts” para refinar las respuestas de EYQ y luego el texto fue revisado, editado y complementado.