4 min read

¿Qué son las arquitecturas cognitivas y por qué escucharás hablar mucho sobre ellas en los próximos años? - Parte 1 de 3

Una breve introducción a los LLMs

Empecemos por un resumen rápido, sencillo y pedagógico sobre qué son los dichosos LLMs (Large Language Models) y por qué se ha armado todo este revuelo en los últimos años alrededor de la IA Generativa.

No se si os acordáis de cuando no sabíamos qué era ChatGPT, cuando a nadie le importaba lo que hacían en una empresa llamada OpenAI ni de las tribulaciones de Sam Altman o sus shows cruzados con Elon Musk, tampoco nos preocupaban los terremotos bursátiles cuando una empresa china presenta un modelo de lenguaje que hace básicamente lo mismo que sus competidores simplemente mejorando la eficiencia de la tecnología...

Qué tiempos aquellos y que lejanos nos parecen, eh? De esta etapa ingenua que ahora nos parece casi pretérita han pasado SOLAMENTE 2 AÑOS.

Los LLMs son el componente central de este terremoto de innovación, y son la base sobre la que se pueden desarrollar infinidad de nuevas aplicaciones que se aprovechen de la capacidad de obtener respuestas con "apariencia" de inteligencia ante todo tipo de peticiones específicas.

Casi todo el mundo sabe ya (quizá pronto encuentre a mi madre preguntándole a Claude por alguna receta) que si preguntas mediante una frase escrita en lenguaje natural a alguna de estas aplicaciones obtendrás respuestas muy correctas y razonables (eso siempre suponiendo que el modelo no alucine y ofrezca una respuesta creativa que, aun teniendo apariencia de certeza, pueda llegar a ser más falsa que la argumentación de un terraplanista).

Para hacer esto puedes elegir el LLM que más te guste, ya disponemos de tanta variedad como de sabores para tu helado favorito: GPT, Gemini, LLaMa, Claude, Grok o Deepseek son solo una pequeña muestra de las múltiples alternativas existentes). Y cada día seguirán apareciendo nuevos y variados sabores con algún tipo de especialización, mejoras en la eficiencia, especialización para determinados casos de uso, alguna pequeña novedad en su enfoque, en su modelo de pricing o que incorpore alguna mejora en rendimiento según alguno de los benchmarks y comparativas existentes.

Pero, ¿realmente dónde está el límite de estos modelos? ¿En qué nos pueden ayudar? ¿Qué tipo de nuevas aplicaciones nos van a permitir desarrollar? ¿Dónde está el límite de su verdadero potencial? ¿Qué cambios pueden provocar estas tecnologías en la sociedad? ¿Qué puestos de trabajo están en peligro? ¿Cómo debo reaccionar, cómo me preparo como profesional o como empresa? ¿Debo acaso entrar en pánico... debe empezar a negociar la hipoteca de mi nuevo búnker?

Permanezcamos tranquilos y tranquilas, creo que aún no es el momento de empezar a comportarnos como aprendices de John y Sarah Connors.

Explicado de forma simple, un LLM es un modelo matemático que se entrena a partir de texto (conocimiento) y que aprende a responder a peticiones en lenguaje natural (prompts) generando una salida que es coherente con la petición realizada.

Sin embargo, mientras responde a nuestra petición, el LLM no ha "entendido" realmente el significado de la misma, ni los conceptos que incluye, ni realmente razona como un humano a partir de esta solicitud... simplemente utiliza patrones estadísticos para generar una secuencia de palabras (tokens) que encajan entre sí y que tienen sentido al entrelazarse y ordenarse en una secuencia definida.

Es ésta una tecnología tan asombrosa que el resultado nos engaña y pensamos que el LLM nos ha comprendido y nos da una respuesta sensata, razonada y coherente a nuestra petición... pero realmente ésto no es más que una ilusión.

De hecho, cuando un LLM alucina, nos da una respuesta que para él es igual de sensata y coherente que las respuestas correctas, pero en este caso la respuesta no es adecuada, no coincide con la realidad, con la verdad o con un razonamiento que para nosotros sea válido. Pero eso sí, la respuesta generará la misma "sensación" de estar correctamente argumentada, de ser lógica y, si no estás atento, puede que te la tragues y la des por buena (con el peligro que esto conlleva, ya que puede llegar a ser muy difícil dilucidar si la respuesta es una alucinación o no).

A lo tonto, en estos dos años hemos recorrido ya un camino importante... hemos aprendido a sorprendernos de lo listos que parecen estos artilugios (en realidad ya no nos sorprendemos), hemos aprendido a detectar e incluso a aburrirnos del contenido generado por IA (el contenido original se revaloriza y se seguirá revalorizando cada día mas), hemos ido aprendiendo la mejor forma de usarlos como valiosas herramientas de productividad que hagan por nosotros tareas ofimáticas o nos ayuden a crear contenido de forma más eficiente. También estamos empezando a experimentar y a descubrir como pueden ayudarnos a organizarnos en nuestra vida diaria, a hacer tareas personales por nosotros o asistirnos en labores que en principio podrían parecer altamente complejas como la programación y el desarrollo de software.

Respecto a las tareas de programación... puede parecer curioso que estas tareas "técnicas" también encajen en ese modelo de generación estadística de secuencias tokens. De hecho, si lo pensamos bien, los lenguajes de programación son también lenguajes (como su propio nombre indica), sólo que más sencillos, limitados y reducidos que los lenguajes que usamos para comunicarnos entre humanos (mucho más abstractos, ambiguos y llenos de matices).

Más allá de este aprendizaje que hemos realizado como individuos y como sociedad (y lo que nos queda...) en estos dos años hemos visto una carrera tecnológica (en mi opinión ya algo cansina) sobre qué empresa desarrolla el LLM más grande, más potente, el que puede procesar más tokens (de entrada y de salida) y también en la creación y desarrollo de un conjunto de nuevas técnicas y best practices sobre la mejor manera de usar estas tecnologías tan novedosas e innovadoras, generándose a velocidad de vértigo un cuerpo de nuevo conocimiento tan dinámico y cambiante que el estado del arte puede llegar a cambiar significativamente a lo largo de pocos días o semanas.

Debido a esto, los informáticos, los especialistas en data y los vendedores de humo (no digo en cuales de las tres categorías me incluyo) hemos tenido que ponernos las pilas para aprender nuevos conceptos a una velocidad de vértigo... nuevos términos, herramientas e incluso una nueva forma de pensar que, en mi opinión, más que rupturista debe ser complementaria con todo lo que ya sabíamos y usábamos para crear soluciones tecnológicas hasta la fecha.

Palabros como token, embeddings, búsqueda vectorial, fine tuning, distillation, RAG, agentes, modelos multimodales, n-shot prompting, chain of thought, reflection y un sinfín más de técnicas, herramientas y conceptos han pasado a formar parte de nuestra vida y de nuestro arsenal tecnológico, para nuestra dicha o desdicha.

En la siguiente parte de este post nos vamos a plantear una pregunta muy importante: ¿Hasta dónde llega el potencial real de los LLMs? ¿Cúal es el límite en su impacto real en los negocios y en la sociedad? ¿Dónde acaba el hype y empieza la realidad?

Todo ello, obviamente, desde una visión totalmente personal en la que me voy a intentar mojar (en la medida de lo posible).

(ir al siguiente Post aqui)