Bases de conocimientos de LLM: el nuevo enfoque de Andrej Karpathy para la memoria de IA y los datos empresariales

18

Andrej Karpathy, una figura destacada en el desarrollo de la IA, ha presentado una arquitectura novedosa para gestionar el conocimiento a largo plazo dentro de grandes modelos de lenguaje (LLM). Este sistema, denominado “Bases de conocimientos de LLM”, evita la necesidad de procesos complejos de generación aumentada de recuperación (RAG) al hacer que el propio LLM mantenga un archivo de archivos Markdown legible por humanos y en continua evolución. Este enfoque resuelve el desafío clave del desarrollo de IA “sin estado”: la pérdida de contexto cuando finalizan las sesiones o se alcanzan los límites de uso.

El problema de la memoria IA tradicional

Actualmente, la mayoría de los LLM luchan con la memoria a largo plazo. Cuando trabajan en proyectos complejos, los usuarios a menudo se enfrentan a la frustrante experiencia de tener que restablecer el contexto después de cada interacción, desperdiciando valiosos tokens y tiempo. Las soluciones tradicionales, como las bases de datos vectoriales y los canales RAG, intentan solucionar este problema indexando documentos en incrustaciones para búsquedas de similitudes. Sin embargo, estos sistemas pueden introducir latencia, ruido y falta de transparencia.

La solución de Karpathy: un archivo de rebajas con mantenimiento automático

El método de Karpathy es elegantemente simple: trate al LLM como un “bibliotecario de investigación” de tiempo completo. El sistema funciona desviando el rendimiento del token para manipular el conocimiento estructurado almacenado en archivos Markdown. Esto garantiza que el LLM recopile, edite y vincule activamente información, creando una base de conocimientos auditable y autorreparable.

La arquitectura consta de tres etapas:

  1. Ingesta de datos: Las materias primas, incluidos artículos de investigación, repositorios de códigos y artículos web, se importan a un directorio sin procesar. El contenido web se convierte a Markdown mediante herramientas como Obsidian Web Clipper, preservando imágenes para las capacidades de visión de LLM.
  2. Compilación: El LLM lee los datos sin procesar y escribe una wiki estructurada, resumiendo conceptos clave, creando artículos estilo enciclopedia y generando vínculos de retroceso entre ideas relacionadas. Esta es la innovación central.
  3. Mantenimiento activo (Linting): El sistema realiza “verificaciones de estado” periódicas, escaneando el wiki en busca de inconsistencias, datos faltantes o nuevas conexiones. Esto garantiza que la base de conocimientos se mantenga precisa y actualizada.

Por qué es importante el descuento

La elección de Markdown es deliberada. Es un formato de datos compacto y legible por humanos que proporciona trazabilidad directa. Cada afirmación hecha por la IA se puede rastrear hasta un archivo .md específico, lo que permite la revisión y edición humana. Esto contrasta marcadamente con el problema de la “caja negra” de las incrustaciones de vectores, donde el razonamiento detrás de los resultados de la IA es opaco.

Implicaciones para las empresas

Si bien la configuración de Karpathy se describe actualmente como una “colección de scripts hacky”, las implicaciones para las aplicaciones empresariales son significativas. La mayoría de las empresas cuentan con grandes cantidades de datos no estructurados (registros de Slack, wikis internos e informes en PDF) que permanecen en gran medida sin explotar. Una capa empresarial “al estilo Karpathy” podría crear activamente una “Biblia de la empresa” actualizada continuamente, sintetizando estos datos en tiempo real.

Varios emprendedores y educadores en IA ya han reconocido este potencial:

  • Vamshi Reddy: “Todas las empresas tienen un directorio raw/. Nadie lo ha compilado nunca. Ese es el producto”.
  • Ole Lehmann: “Una aplicación que se sincroniza con las herramientas que ya usas… se encuentra en algo enorme”.
  • Eugen Alpeza: “Hay espacio para un nuevo producto y lo estamos desarrollando en la empresa”.

Escalamiento, rendimiento y el futuro de la memoria de IA

A pesar de las preocupaciones sobre la escalabilidad, Karpathy señala que su sistema funciona bien con hasta 100 artículos y 400.000 palabras. Para conjuntos de datos más pequeños, la simplicidad de Markdown a menudo supera la latencia y el ruido de las bases de datos vectoriales complejas.

El objetivo final es aprovechar este conocimiento estructurado para la generación y el ajuste de datos sintéticos. Al perfeccionar continuamente la wiki, el LLM puede crear un conjunto de capacitación de alta calidad para modelos de inteligencia privados y personalizados.

El propio Karpathy resume: “Rara vez se escribe o edita el wiki manualmente; es dominio del LLM”.

Esto representa un cambio hacia archivos autónomos donde la IA mantiene su propia memoria, eliminando la necesidad de una intervención humana constante. La era del marcapáginas olvidado ha terminado; Estamos entrando en una era en la que la IA recuerda todo por nosotros.