Разработка AI-агентов: от улучшения моделей к надежным “системам управления”

2

Новейшее поколение больших языковых моделей (LLM) стремительно улучшает свои возможности, но одного лишь более умного алгоритма недостаточно для развертывания надежных AI-агентов. Настоящая задача заключается в “инженерии систем управления” – создании инфраструктуры, которая позволит этим моделям действовать независимо и эффективно в течение продолжительных периодов времени. Как объясняет генеральный директор LangChain Харрисон Чейз, это эволюция традиционной инженерии контекста, смещение от ограничения моделей к расширению их возможностей.

Сдвиг от контроля к автономии

Ранние AI-системы были созданы для предотвращения бесконечных циклов и бесконтрольного использования инструментов. Сейчас же наблюдается тенденция к предоставлению LLM большего контроля над собственным контекстом. Это позволяет создавать долгосрочных, автономных помощников, способных планировать и выполнять сложные задачи без постоянного вмешательства человека. Чейз приводит в пример приобретение OpenAI компании OpenClaw: ее вирусный успех был обусловлен не самой моделью, а тем, что ей дали возможность работать с уровнем свободы, который мало кто из авторитетных лабораторий мог бы себе позволить.

Остается открытым вопрос, сможет ли OpenAI примирить этот подход “дайте волю” с безопасностью и надежностью, необходимыми для корпоративных приложений. Возможность безопасного развертывания автономных агентов – вот настоящая награда.

Проблема преждевременной автономии

Долгое время LLM не обладали достаточной мощностью, чтобы надежно справляться с автономными циклами. Проекты, такие как AutoGPT, хотя и многообещающие в теории, это продемонстрировали: архитектура была готова, но модели просто не могли поддерживать связность или эффективно выполнять планы. Разрыв между возможностями модели и дизайном агента приводил к тому, что ранние попытки часто терпели неудачу.

Однако по мере улучшения LLM эта динамика меняется. Команды теперь могут создавать среды, в которых модели могут работать в циклах, планировать на более длительные сроки и постоянно совершенствовать эти “системы управления” для повышения производительности.

Deep Agents от LangChain: настраиваемое решение

Ответ LangChain на этот вызов – Deep Agents, настраиваемая система управления, построенная на LangChain и LangGraph. Она предоставляет несколько ключевых функций:

  • Возможности планирования: позволяют агентам разбивать сложные задачи на управляемые шаги.
  • Виртуальная файловая система: позволяет агентам хранить, извлекать и управлять информацией.
  • Управление контекстом и токенами: предотвращает перегрузку контекста и обеспечивает эффективное использование ресурсов LLM.
  • Выполнение кода: дает агентам возможность запускать код для динамического решения проблем.
  • Навыки и функции памяти: позволяют агентам учиться и адаптироваться со временем.
  • Делегирование под-агентам: разбивает задачи на более мелкие части, которые обрабатываются специализированными агентами, работающими параллельно для повышения эффективности.

Важно, что Deep Agents изолируют контексты под-агентов, чтобы предотвратить беспорядок, сжимая результаты для эффективного использования токенов. Агенты могут создавать и отслеживать списки дел из сотен шагов, эффективно “записывая свои мысли” по ходу дела. Ключевым моментом является предоставление LLM возможности решать, когда сжимать контекст для оптимальной производительности.

Контекст – это король

Чейз подчеркивает, что эффективная разработка агентов сводится к инженерии контекста: обеспечению LLM правильной информацией в правильном формате в правильное время. Когда агенты терпят неудачу, это обычно проблема контекста; когда они преуспевают, это потому, что у них есть необходимые знания.

Это означает отказ от статических системных подсказок и переход к динамическим навыкам, которые агенты могут загружать по требованию. “Вместо того, чтобы жестко кодировать все в одну большую системную подсказку”, – объяснил Чейз, – “вы можете использовать меньшую системную подсказку: ‘Это основная основа, но если мне нужно сделать X, я прочитаю навык для X. Если мне нужно сделать Y, я прочитаю навык для Y'”.

Наблюдаемость и трассировка имеют решающее значение для отладки и понимания того, как думают агенты. Анализируя поведение агентов, разработчики могут ответить на фундаментальные вопросы: какова системная подсказка? Как она создается? Какие инструменты есть у агента? Как представлена обратная связь?

Будущее разработки агентов

Следующим рубежом являются безопасные песочницы для выполнения кода, развивающиеся пользовательские интерфейсы, предназначенные для долгосрочных агентов, и инструменты глубокой наблюдаемости для отслеживания производительности. Индустрия движется дальше простого улучшения моделей и разрабатывает системы, которые позволяют им надежно работать в реальном мире.

Наиболее важным фактором в разработке AI-агентов больше не является размер модели, а то, насколько эффективно вы можете управлять контекстом, расширять автономию и отслеживать производительность. “Система управления” теперь так же важна, как и сама модель.