Bases de conhecimento LLM: a nova abordagem de Andrej Karpathy para memória de IA e dados corporativos

24

Andrej Karpathy, uma figura líder no desenvolvimento de IA, revelou uma nova arquitetura para gerenciar conhecimento de longo prazo em grandes modelos de linguagem (LLMs). Este sistema, denominado “LLM Knowledge Bases”, ignora a necessidade de pipelines complexos de geração aumentada de recuperação (RAG), fazendo com que o próprio LLM mantenha um arquivo de arquivos Markdown legível por humanos em constante evolução. Esta abordagem resolve o principal desafio do desenvolvimento de IA “sem estado”: ​​a perda de contexto quando as sessões terminam ou os limites de utilização são atingidos.

O problema com a memória de IA tradicional

Atualmente, a maioria dos LLMs luta com a memória de longo prazo. Ao trabalhar em projetos complexos, os usuários muitas vezes enfrentam a experiência frustrante de ter que restabelecer o contexto após cada interação, desperdiçando tempo e tokens valiosos. Soluções tradicionais, como bancos de dados vetoriais e pipelines RAG, tentam resolver isso indexando documentos em incorporações para pesquisas de similaridade. No entanto, estes sistemas podem introduzir latência, ruído e falta de transparência.

Solução de Karpathy: um arquivo Markdown com automanutenção

O método de Karpathy é elegantemente simples: trate o LLM como um “bibliotecário de pesquisa” em tempo integral. O sistema opera desviando o rendimento do token para a manipulação de conhecimento estruturado armazenado em arquivos Markdown. Isso garante que o LLM compile, edite e interligue ativamente as informações, criando uma base de conhecimento auditável e auto-recuperável.

A arquitetura consiste em três etapas:

  1. Ingestão de dados: Matérias-primas, incluindo artigos de pesquisa, repositórios de código e artigos da web, são importadas para um diretório bruto. O conteúdo da Web é convertido para Markdown por meio de ferramentas como Obsidian Web Clipper, preservando imagens para recursos de visão LLM.
  2. Compilação: O LLM lê os dados brutos e escreve um wiki estruturado, resumindo os principais conceitos, criando artigos em estilo enciclopédico e gerando backlinks entre ideias relacionadas. Esta é a inovação central.
  3. Manutenção Ativa (Linting): O sistema realiza “verificações de integridade” regulares, verificando o wiki em busca de inconsistências, dados ausentes ou novas conexões. Isso garante que a base de conhecimento permaneça precisa e atualizada.

Por que o Markdown é importante

A escolha do Markdown é deliberada. É um formato de dados compacto e legível que fornece rastreabilidade direta. Cada reivindicação feita pela IA pode ser rastreada até um arquivo .md específico, permitindo revisão e edição humana. Isto contrasta fortemente com o problema da “caixa preta” da incorporação de vetores, onde o raciocínio por trás dos resultados da IA ​​é opaco.

Implicações para as empresas

Embora a configuração do Karpathy seja atualmente descrita como uma “coleção hackeada de scripts”, as implicações para os aplicativos corporativos são significativas. A maioria das empresas baseia-se em grandes quantidades de dados não estruturados – registros do Slack, wikis internos e relatórios em PDF – que permanecem em grande parte inexplorados. Uma camada empresarial do “estilo Karpathy” poderia criar ativamente uma “Bíblia da Empresa” continuamente atualizada, sintetizando esses dados em tempo real.

Vários empreendedores e educadores de IA já reconheceram este potencial:

  • Vamshi Reddy: “Toda empresa tem um diretório raw/. Ninguém nunca o compilou. Esse é o produto.”
  • Ole Lehmann: “Um aplicativo que sincroniza com as ferramentas que você já usa… está em algo enorme.”
  • Eugen Alpeza: “Há espaço para um novo produto e estamos construindo-o na empresa.”

Dimensionamento, desempenho e o futuro da memória de IA

Apesar das preocupações com a escalabilidade, Karpathy observa que seu sistema funciona bem com até 100 artigos e 400.000 palavras. Para conjuntos de dados menores, a simplicidade do Markdown geralmente supera a latência e o ruído de bancos de dados vetoriais complexos.

O objetivo final é aproveitar esse conhecimento estruturado para geração e ajuste fino de dados sintéticos. Ao refinar continuamente o wiki, o LLM pode criar um conjunto de treinamento de alta qualidade para modelos de inteligência privados e personalizados.

O próprio Karpathy resume: “Raramente você escreve ou edita o wiki manualmente; é o domínio do LLM.”

Isto representa uma mudança para arquivos autónomos onde a IA mantém a sua própria memória, eliminando a necessidade de intervenção humana constante. A era dos marcadores esquecidos acabou; estamos entrando em uma era em que a IA se lembra de tudo para nós.