En este artículo vamos a resumir los desafíos más importantes a los que se enfrentan las organizaciones para gestionar la Inteligencia Artificial (IA) con un enfoque basado en la integridad, según se desprende del Informe de Integridad Global 2024 de EY, publicado en junio de 2024 que recoge las opiniones de 5.464 empleados, directivos y miembros de consejos de administración de 53 países.
¿Cuál es el grado de adopción de la IA en las organizaciones?
Los hallazgos del Informe Global de Integridad de EY 2024 sugieren que las organizaciones se están enfrentando a los retos de iniciación, desarrollo y despliegue de la IA para transformar su negocio. En toda la organización, un poco más de una cuarta parte (29%) dice que actualmente están utilizando herramientas habilitadas por IA en sus negocios y operaciones. Otro cuarto (25%) dice que planea hacerlo en los próximos dos años.
Los departamentos de Sistemas (TI) son el primer adoptante, con un 42% que utiliza herramientas habilitadas por IA. Cumplimiento (31%) y finanzas (33%) también están dando pasos audaces. Auditoría interna (23%) y legal (14%), mientras tanto, se quedan atrás en el uso activo de la IA, pero muchos tienen planes para ponerse al día en los próximos dos años.
La baja adopción general de la IA dentro de las áreas legales y de auditoría interna sugiere que la segunda y tercera líneas de defensa de la organización no están manteniendo el ritmo con el uso de la IA en el resto de la organización. Hay que destacar que esta misma situación se observó en años anteriores en la gestión de datos y la automatización de procesos robóticos (RPA), y que actualmente legal, cumplimiento y auditoría interna todavía están poniéndose al día con el uso de análisis de datos por parte de la organización.
¿Cuál es el rol de los departamentos de la segunda y tercera línea de defensa en la adopción de la IA en la organización?
Por una parte, un rol de aseguramiento en cuanto al uso que hace la organización de la IA:
- Legal, cumplimiento y auditoría interna deben desempeñar un papel más importante en cómo y dónde las funciones adoptan la IA. Estas funciones deben ser parte del comité de riesgos que evalúa la adopción de nuevas innovaciones, como la IA, y desarrolla barreras alrededor de los casos de uso. También necesitan evaluar habilidades y competencias, y mejorar las competencias de los ejecutivos y desarrolladores en relación con el diseño responsable y las consideraciones legales involucradas en el desarrollo de la IA.
- Las organizaciones tienen el desafío de asegurarse que las herramientas habilitadas por IA se utilicen dentro de la organización de acuerdo con las directrices internas y cumplan con las regulaciones jurisdiccionales o los requisitos legales.
Por otra parte, deben ser proactivos en el uso de la IA para la ejecución de las tareas propias de sus propios departamentos. Por ejemplo, las herramientas de GenAI pueden investigar y resumir rápidamente grandes masas de información, redactar contratos y realizar ciertos procedimientos de descubrimiento electrónico, aumentando en gran medida la precisión y eficiencia en la ejecución de tareas rutinarias como, por ejemplo, entre otras:
- Monitorear cambios regulatorios y analizar datos internos para identificar posibles brechas de cumplimiento.
- Simplificar el proceso de diligencia debida automatizando verificaciones de antecedentes de terceros y análisis financieros para detectar señales de alerta.
- Mejorar la evaluación de riesgos analizando transacciones financieras, comunicaciones y otros datos para detectar patrones y anomalías.
- Generar alertas en tiempo real de actividades sospechosas y clasificar instancias de posible mala conducta.
- Realizar revisiones de correos electrónicos y documentos en respuesta a consultas regulatorias, citaciones y litigios.
- Proporcionar respuestas a demanda a consultas de cumplimiento de empleados, referenciar políticas corporativas y dar instrucciones de "cómo hacer" a través de chatbots de IA.
¿De qué manera las organizaciones pueden adoptar un enfoque de integridad hacia la IA?
El ritmo acelerado de la evolución de la IA está poniendo la misma entre las prioridades de los reguladores, y las exigencias de estos irán a más a medida que las organizaciones aumenten su adopción, lo que conllevará que las organizaciones gestionen los procesos de cumplimiento, protejan contra riesgos legales y empleen la función de auditoría interna para validar la efectividad de los controles alrededor del uso de la IA.
Si las organizaciones no son proactivas en inculcar una cultura de integridad alrededor de la IA podrían surgir vulnerabilidades con consecuencias en términos de reputación y sanciones.
Cinco formas en que las organizaciones pueden adoptar un enfoque de integridad primero hacia la IA:
1. Evaluar la estrategia de IA.
- Es importante entender la madurez del sistema de gestión del uso de la IA.
- Esta evaluación puede ayudar a identificar brechas críticas. Por ejemplo, (ausencia de un marco de gobernanza de la IA consistente entre las diferentes áreas de la organización, localizaciones, etc.)
2. Desarrollar una política formal de IA y los medios para implementarla.
- La gobernanza es el soporte para permitir una IA segura, sostenible, responsable y transparente.
- Desarrollar una política de IA formal —y aplicable—, acompañada de los medios apropiados para implementarla y monitorizarla.
- La política debe prestar atención específica a los estándares y directrices que abordan el respeto de los derechos de las personas, la seguridad y la privacidad; la equidad, precisión y fiabilidad de los resultados de la IA; y la seguridad de los datos y modelos subyacentes.
2. Formar un equipo multifuncional.
- Para que una política de IA sea más efectiva, múltiples departamentos de la organización (TI, privacidad y seguridad de la información, cumplimiento, legal, innovación, finanzas y auditoría interna) deben trabajar juntas para considerar los casos de uso de la IA, los riesgos asociados y las barreras apropiadas.
- Cada perspectiva es importante en la adopción de estrategias de IA adecuadas.
3. Construir un plan de respuesta regulatoria y de litigios para la IA.
- Con entornos legales y regulatorios cada vez más desafiantes, especialmente en lo que respecta a la IA, las organizaciones deben estar preparadas con un plan de respuesta para gestionar tales eventos de crisis.
- Si surge un problema, el uso de la IA por parte de la organización será examinado minuciosamente.
- Las organizaciones necesitan saber quién debe estar involucrado, dónde viven los datos y quién es responsable de ellos.
4. Optimizar la gobernanza y los procesos de datos.
- Para que los profesionales de la organización confíen en los datos, se necesita tener una estrategia clara para la comprensión clara y completa de los mismos.
- Esto debe incluir el mapeo de datos y la línea de tiempo para saber de dónde provienen los datos, así como su nivel de calidad y limitaciones.
- Además, las organizaciones deben tener, o construir, un inventario de todas las herramientas de IA y aprendizaje automático (ML) en uso.
- A medida que maduren las capacidades de IA de la organización, puede centrarse en construir una infraestructura escalable, flexible y segura que pueda gestionar de manera segura una cartera de algoritmos de IA.
En resumen, dada la velocidad a la que avanza la IA y su potencial de transformación, las organizaciones necesitan tener una estrategia de gobernanza para la IA e implementar un enfoque sistemático para su uso ético y responsable. Un enfoque que se centre en la transparencia, la responsabilidad, la confianza y la equidad promoverá el uso seguro y ético de la IA, en beneficio no solo de la organización sino también de la sociedad.