Sin embargo, los riesgos y las consecuencias no deseadas de la inteligencia artificial también son reales. Lo estamos viendo particularmente con las aplicaciones de IA generativa que han aparecido en el último año: un motor de generación de texto que puede imitar de forma convincente una serie de registros está abierto al mal uso, o un software de imitación de voz puede imitar los patrones de habla de un individuo lo suficientemente bien como para hacerse pasar por él. Hasta los chatbots pueden hacer trampas en los exámenes. Por otro lado, hemos visto ejemplos de cómo las plataformas de IA pueden reforzar y perpetuar prejuicios y sesgos humanos (por ejemplo, basados en el género, la raza o la orientación sexual), socavar los derechos personales, comprometer la seguridad de los datos o producir desinformación capaz de causar conmoción a nivel mundial. Es mucho lo que está en juego.
Los legisladores, reguladores y otros organismos de control están empezando a desarrollar marcos para maximizar los beneficios de la IA para la sociedad al tiempo que se mitigan sus riesgos. Estos marcos deben ser resistentes, transparentes y equitativos. Para ofrecer una instantánea del panorama normativo en evolución, desde EY hemos analizado los enfoques normativos de ocho jurisdicciones: Canadá, China, la Unión Europea (UE), Japón, Corea del Sur, Singapur, el Reino Unido y Estados Unidos (EE.UU.). Las normas e iniciativas políticas proceden del Observatorio de políticas de IA de la OCDE.
Cinco tendencias reguladoras de la Inteligencia Artificial
Reconociendo que cada jurisdicción ha adoptado un enfoque regulador diferente, en consonancia con las distintas normas culturales y contextos legislativos, hay cinco áreas comunas que se unen bajo el principio de mitigar los daños potenciales de la IA al tiempo que se permite su uso para el beneficio económico y social de los ciudadanos. Estas áreas comunes suponen una base importante sobre la que desarrollar normativas más detalladas.
- Principios básicos: La normativa sobre IA que se está estudiando es coherentes con los principios básicos de la IA definidos por la OCDE y respaldados por el G20. Estos principios incluyen el respeto a los derechos humanos, la sostenibilidad, la transparencia y una fuerte atención a la gestión del riesgo.
- Enfoque basado en el riesgo: Los países están aplicando un enfoque basado en el riesgo para la regulación de la IA. Esto significa que están adaptando sus normativas sobre IA a los riesgos percibidos en relación con principios como la privacidad, la no discriminación, la transparencia y la seguridad.
- Regulación genérica y por sectores: debido a los diversos casos de uso de la IA, algunos países u organizaciones se están centrando en el desarrollo de normas sectoriales específicas, además de la regulación genérica.
- Alineación de políticas: Los países están elaborando normativas relacionadas con la IA dentro de un conjunto de otras prioridades de política digital, como la ciberseguridad, la privacidad de los datos y la protección de la propiedad intelectual, siendo la UE la que adopta el enfoque más completo.
- Colaboración público-privada: Muchos de estos países están utilizando los ámbitos de pruebas (sandboxes) de regulación como una herramienta para que el sector privado colabore con los responsables políticos en el desarrollo de normas que cumplan con el objetivo central de promover una IA segura y ética, así como para considerar las implicaciones de la innovación de mayor riesgo asociada a la IA.
Otras consideraciones sobre la IA para los legisladores
Otros factores a tener en cuenta en la elaboración de regulación sobre IA son:
- Garantizar que los reguladores tengan acceso a suficientes expertos en la materia para aplicar, supervisar y hacer cumplir con éxito estas políticas.
- Garantizar la claridad de la norma, tanto si la intención es regular los riesgos derivados de la propia tecnología (por ejemplo, el procesamiento de lenguaje o el reconocimiento facial) de la forma en la que se utiliza la tecnología (por ejemplo, la aplicación de la IA en los procesos de contratación) o de ambos.
- Examinar en qué medida las políticas y procedimientos de gestión de riesgos, así como la responsabilidad del compliance, deben aplicarse a terceras partes y proveedores que suministran productos y servicios relacionados con la IA.
Además, los reguladores deberían, en la medida de lo posible, participar en procesos multilaterales para hacer que las regulaciones aplicables a la IA sean interoperables y comparables entre jurisdicciones, con el fin de minimizar los riesgos asociados al arbitraje regulatorio, que son especialmente significativos cuando se consideran las normas que rigen el uso de una tecnología transnacional como la IA.
Medidas para las empresas
Para los directivos de las empresas, comprender los principios básicos que constituyen la base de las regulaciones de la IA, incluso si dichas regulaciones no les son aplicables en la actualidad, puede servir para inspirar la confianza de clientes y autoridades reguladoras en su uso de la IA y, de este modo, ofrecer una ventaja competitiva potencial en el mercado. También puede ayudar a las empresas a anticipar las necesidades de gobernanza y los requisitos de cumplimiento que pueden aplicarse a su desarrollo y uso de la IA, haciéndolas más ágiles.
Sobre la base de las tendencias identificadas, hay al menos tres medidas que las empresas pueden tomar ahora para mantenerse un paso por delante del panorama normativo de la IA, que evoluciona rápidamente.
- Entender la normativa vigente sobre IA en los mercados en los que opera y alinear las políticas internas de la empresa en materia de IA con dichas normativas.
- Establecer estructuras y protocolos de gobernanza y gestión de riesgos rigurosos y claros, así como, en la medida en que proceda, mecanismos de rendición de cuentas para mejorar la gestión de las tecnologías de IA.
- Entablar un diálogo con funcionarios del sector público y otros agentes para comprender mejor la evolución del panorama regulatorio, así como para proporcionar información y puntos de vista que puedan ser útiles para los responsables políticos.
Para que los modelos de gobernanza alcancen un equilibrio adecuado entre la supervisión de la Administración y la innovación, es importante que las empresas, los legisladores y otras otros stakeholders entablen conversaciones abiertas. Todas estas partes están tanteando el terreno y trabajando para implementar las nuevas posibilidades que ofrece la IA, un escenario que necesitará una regulación correspondiente.
Afortunadamente, como muestra nuestro estudio, existe un amplio acuerdo entre los países sobre los principios fundamentales que deben regir el uso de la IA. Ha llegado la hora de cooperar para poner en práctica esos principios.