Hay que ser cautelosos frente al desarrollo de la IA y entablar una discusión seria sobre su regulación.
Saltaron las alarmas, ante algo inédito por sus características y su velocidad de diseminación. Preocupaba su potencia y también la velocidad con la que era capaz de procesar un volumen ingente de información en tiempo récord y ofrecernos un relato creíble. Nos lanzamos a su adopción hasta llegar a preocupar, entre otros, a la comunidad de creadores de contenido (copywriters).
Cinco días después de su aparición (14.03.23), el modelo GPT-4 de OpenAI (175.000 millones de parámetros) tenía un millón de usuarios y muchas dudas. Incluso algún país decidió bloquearlo por considerar que no respeta la ley de protección de datos y que recoge datos de los usuarios de forma ilegal.
Tres meses después se publica una carta abierta que firman más de 1.800 expertos que constatan una carrera desbocada para desarrollar e implementar sistemas de IA cada vez más poderosos que nadie puede controlar de manera eficaz.
Los directores de las principales empresas de IA se han reunido con J. Biden y K. Harris para hablar sobre la necesidad de un desarrollo ético y seguro de la IA. Participaron S. Pichai de Google, S. Nadella de Microsoft, S. Altman de OpenAI y D. Amodei de Anthropic, quedando claro el papel de estas empresas en el ecosistema de innovación de IA, pero también la responsabilidad ética, moral y legal de que sus productos, ChapGPT, Bard y Bing Chat, sean seguros y protejan los derechos de las personas.
Ante esta llamada de atención, se inicia una pausa para comprender estos sistemas y pensar cómo gestionar esta nueva situación. Pero parece poco realista convencer a las partes implicadas -empresas, centros de investigación y países- de una moratoria. Debemos abordar cómo protegernos contra los efectos negativos más que proponer medidas transitorias.
Mientras escribimos estas líneas y preparamos la maleta pensando que la IA veranea, un grupo de 9 robots con IA coinciden en una rueda de prensa en la que expresan sus "puntos de vista: nos piden no tenerles miedo porque ni pretenden montar una revolución ni robarnos los empleos” (sic).
Hay que ser cautelosos frente al desarrollo de la IA y entablar una discusión seria sobre su regulación. La IA se empezó a desarrollar a principios de los 90 y su aplicación en medicina es clave, mejorando el día a día de pacientes y profesionales sanitarios: ayuda en la toma de decisiones médicas, prevención, diagnóstico y tratamiento de las enfermedades, formación e investigación.
Los ejemplos de soluciones en medicina basadas en IA son numerosos y afectan a todas las áreas anteriormente citadas, pero estamos en el tiempo de la validación correspondiente.
La IA está entre nosotros y no descansa. Sólo queda convivir con ella y apartar el miedo a una rebelión de robots. A las autoridades les compete que lo hagamos en un entorno seguro.
Publicado en El Correo Gallego