Las capacidades aceleradoras de la Inteligencia Artificial Generativa (GenAI, por sus siglas en inglés) — incluidos los large language models (LLM) — así como los sistemas que utilizan datos de geolocalización en tiempo real, el reconocimiento facial y el procesamiento cognitivo avanzado, han llevado la regulación de la IA a la cima de las bandejas de entrada de los creadores de políticas.
No es sencillo. En Europa, por ejemplo, mientras algunos países miembro quieren liberalizar el uso del reconocimiento facial por parte de sus fuerzas policiales, el Parlamento de la UE quiere imponer restricciones estrictas como parte de la Ley de Inteligencia Artificial.1 En otro debate sobre la legislación de IA, el Ministerio de Electrónica e Informática de la India publicó un fuerte comunicado en abril, optando contra la regulación de IA y afirmando que India “está implementando políticas y medidas de infraestructura necesarias para cultivar un sector robusto de IA, pero no pretende introducir legislación para regular su crecimiento”.2 Sin embargo, en mayo, el ministro de IT anunció que India planea regular plataformas de IA como ChatGPT y está “considerando un marco regulatorio para la IA, que incluye áreas relacionadas con el sesgo de algoritmos y derechos de autor”.3 De forma similar, si bien no es probable que Estados Unidos apruebe pronto una nueva legislación federal sobre IA, reguladores como la Comisión Federal de Comercio (FTC, por sus siglas en inglés) han respondido a las preocupaciones públicas sobre el impacto de la IA generativa, abriendo investigaciones expansivas en algunas plataformas de IA.4
La Inteligencia Artificial está transformando una amplia gama de industrias, desde las finanzas y la manufactura hasta la agricultura y la salud, mejorando sus operaciones y remodelando la naturaleza del trabajo. La IA permite una gestión y logística de flotas más inteligentes, optimizando la previsión de energía, creando un uso más eficiente de las camas hospitalarias a través del análisis de los datos de los pacientes y el modelado predictivo, mejorando el control de calidad en la manufactura avanzada y creando experiencias de consumo personalizadas. También está siendo adoptada por gobiernos que ven su capacidad para brindar un mejor servicio a la ciudadanía a menor costo para los contribuyentes. Con los sectores privados globales invirtiendo en IA, los niveles de inversión son ahora 18 veces más altos que en 2013.5 La IA es potencialmente un poderoso impulsor del crecimiento económico y un habilitador clave de los servicios públicos.
Sin embargo, los riesgos y consecuencias no deseadas de GenAI también son reales. Un motor de generación de texto que puede imitar de manera convincente una variedad de registros está abierto al mal uso; el software de imitación de voz puede imitar los patrones de voz de un individuo lo suficientemente bien como para convencer a un banco, un lugar de trabajo o un amigo. Los chatbots pueden hacer trampa en las pruebas. Las plataformas de IA pueden reforzar y perpetuar los sesgos humanos históricos (por ejemplo, basados en el género, la raza u orientación sexual), socavar los derechos personales, comprometer la seguridad de los datos, producir desinformación, desestabilizar el sistema financiero y causar otras formas de disrupción global. Las apuestas son altas.
Legisladores y reguladores están comenzando a desarrollar marcos para maximizar los beneficios de la IA para la sociedad mientras mitigan sus riesgos. Estos marcos necesitan ser resilientes, transparentes y equitativos. Para proporcionar una imagen instantánea de la evolución del panorama normativo, la organización EY (EY) ha analizado los enfoques regulatorios de ocho jurisdicciones: Canadá, China, la Unión Europea (UE), Japón, Corea, Singapur, Reino Unido y los Estados Unidos (EE. UU.). Las normas e iniciativas de política se obtuvieron del observatorio de políticas de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE)6 y se enumeran en el apéndice del informe completo.