Desde entonces, más del 90% de los artículos que hablan sobre IA se refieren al subconjunto de las Inteligencias Artificiales Generativas (IAG), aquellas capaces de crear contenido que no existía, ya sea en texto, música y audio, imágenes, video o código. Y casi todas hacen referencia a los llamados Large Language Models (LLM por sus siglas en inglés) o modelos de lenguaje de gran tamaño.
Este entusiasmo informativo contrasta con el tamaño de mercado de la IAG, que se espera que alcance 45 miles de millones de dólares a finales de 2023, apenas el 19% de los 242 del mercado total de inteligencia artificial. Y resulta también llamativo considerando que, dentro de la IAG, el mayor porcentaje del pastel lo representan aplicaciones y modelos relacionados con imágenes y video, seguidos de los mencionados LLM.
Entonces, ¿por qué tanto revuelo? ¿Por qué vemos cada día noticias de LLM si no suponen ni el 10% del valor del mercado? Y ligado a esto, ¿por qué, con tanto entusiasmo, no vemos todavía una adopción a escala, con grandes proyectos de Generativa? ¿Estamos ante un hype o moda, una promesa o una realidad? Vayamos por partes.
Gran parte del entusiasmo actual se debe a las sorprendentes capacidades de los LLM en su corta vida pública y, sobre todo, a las expectativas que están generando. Se espera que el conjunto del mercado de IA crezca anualmente un 17%, pasando de los 242 miles de millones de dólares de hoy a 740 en 2030. Y la IAG, que alcance los 207 millones, un 24,4% más, incluso –según qué fuentes- un 35%. Son palabras mayores que hacen de la IAG la que más crecerá dentro de la gran familia de las IA.
Un crecimiento que dependerá de muchos factores, pero sobre todo y aunque parezca evidente, del uso y aplicaciones que les demos, y a la velocidad a la que vayan mejorando. Viendo la aceleración de versiones y los saltos cualitativos entre éstas, es de esperar que mejoren, y mucho.
Desde el punto de vista de su uso, los LLM han llevado a otro nivel servicios cognitivos como el reconocimiento y entendimiento del lenguaje - texto o voz- o la generación de respuestas. Son modelos que, a diferencia de los no generativos, entienden con mayor precisión y generan respuestas muchísimo más naturales. ¡Es que incluso entienden la ironía y el sarcasmo! Ello implica que pueden aplicarse a un número mayor de casos de uso, antes restringidos a personas, o que requerían mucho trabajo y entrenamiento.
Actualmente, creo que no hay empresa o institución que no haya experimentado con estas tecnologías, explorando su uso y aplicaciones. Sin embargo, todavía vemos un cierto decalaje entre ese interés inicial y la decisión de pasar a la acción, así como su velocidad de despliegue, y la mayoría optan por una aproximación más prudente y gradual. También hay empresas que tienen sus reticencias o no están aún preparadas para adoptarlas. Sin olvidarnos del cierto gap entre las expectativas iniciales –quizás desorbitadas o demasiado optimistas todavía-, y la realidad.
En este sentido, es importante aclarar la confusión y errores de concepto que lo propician. Por ejemplo, muchos usuarios piensan que estos modelos aprenden y se pueden entrenar, y no es exactamente así. Gran parte de ellos, especialmente los que no son open source o de código abierto-, son modelos pre-entrenados, que vienen como “cajas negras”, a los que hay que ayudar y guiar para que entiendan y respondan en tiempo y forma. Digamos, por simplificar, que su aprendizaje y entrenamiento depende más de los desarrolladores que los han creado y los algoritmos de auto-aprendizaje del propio modelo, que de nosotros, incluso para modelos de open-source. Además, conviene aclarar que los modelos de LLM, de los que se habla mayoritariamente, funcionan muy bien cuando se utilizan para trabajar con lenguaje: conversaciones o textos escritos en diversos formatos, ¡pero ojo! ¡No sirven para todo! Los LLM no son buenos para trabajar con números, y aún peores para operaciones de cálculo. E igualmente importante: si el acceso o calidad de los datos es malo, los resultados serán malos.
No obstante, sean las expectativas medias, altas o muy altas, tengamos presente: primero, que estas tecnologías están evolucionando a un ritmo sin precedentes, y lo que hoy son limitaciones, pueden dejar de serlo muy pronto. Y segundo, que apenas hemos empezado a entender cómo funcionan estos modelos y qué usos pueden tener. Más allá de los usos más evidentes, la combinación con otras disciplinas de IA –que se están viendo revitalizadas-, y con otras tecnologías como RPA, o incluso con librerías de código, puede llevar sus aplicaciones y usos a terrenos y casos que ahora ni concebimos. Como se suele decir, el camino se hace al andar, y dependerá mucho de todos nosotros, de nuestro ingenio, pericia y del uso que les demos.
Publicado en Expansión