Agentic workflows

Материал из Systems analysis wiki
Перейти к навигации Перейти к поиску

Агентные рабочие процессы (Agentic Workflows) — это динамические многошаговые процессы, в которых автономные AI-агенты на базе больших языковых моделей (LLM) самостоятельно принимают решения, выполняют действия и координируют задачи с минимальным участием человека[1]. В таких системах LLM используется не только для генерации ответа на один запрос, но и для планирования последовательности действий, взаимодействия с внешними инструментами и итеративного улучшения результата.

В отличие от традиционной автоматизации, основанной на жёстко запрограммированных правилах, агентные подходы обладают гибкостью — они могут адаптироваться к новым данным и непредвиденным условиям. Агентный рабочий процесс отличается от простого вызова LLM (например, для резюмирования текста) тем, что агент наделяется автономией в выборе действий, что включает планирование, использование инструментов и самокоррекцию[2].

Компоненты и архитектура агентного workflow

Агентный рабочий процесс объединяет несколько ключевых компонентов для достижения цели.

AI-агент и LLM

В центре процесса находится AI-агент — автономная программа, действующая от лица пользователя или системы. Ключевым компонентом агента является большая языковая модель, которая обеспечивает понимание инструкций на естественном языке и генерацию необходимых рассуждений. Качество работы агента существенно зависит от инженерии промптов — различные схемы подсказок (например, Chain-of-Thought) помогают настраивать LLM на требуемый стиль работы[1].

Инструменты (доступ к внешним действиям)

Поскольку знания LLM ограничены данными её обучения, агенту предоставляются внешние инструменты, расширяющие его возможности. Инструменты могут включать доступ к базам знаний, поисковым системам, API, кодовым интерпретаторам и другим приложениям. С их помощью агент получает актуальную информацию или выполняет реальные действия вне самой модели[2].

Память и контекст

Отличительная черта агентных workflow — наличие механизма памяти, позволяющего агенту учитывать предыдущий опыт и контекст.

  • Краткосрочная память удерживает недавнюю информацию (например, историю диалога) в рамках текущей сессии.
  • Долгосрочная память сохраняет знания и результаты, накопленные за многие запуски, часто с использованием внешних хранилищ (например, векторных баз данных)[3].

Обратная связь и корректировка

Механизмы обратной связи играют важную роль в повышении надежности. Агент может получать feedback от среды выполнения задачи, от вспомогательной модели-«критика» или от человека (режим human-in-the-loop). Например, система Reflexion реализует внутреннюю самообратную связь: агент анализирует собственные ошибки и сохраняет «размышления» в памяти, чтобы улучшить последующие попытки[4].

Многоагентные конфигурации

В сложных сценариях применяется многоагентная архитектура, где несколько специализированных агентов взаимодействуют друг с другом. Например, агент-«планировщик» ставит подзадачи, а несколько агентов-«исполнителей» решают свои узкие задачи (поиск данных, вычисление и т.д.)[1].

Типовые паттерны и алгоритмы работы агентов

Хотя универсальной стандартизированной архитектуры агентных LLM-систем пока не выработано, в 2023–2024 годах начали появляться повторяющиеся паттерны[5].

  • Пошаговое планирование (Prompt Chaining). Задача разбивается на последовательность этапов с помощью цепочки LLM-вызовов. Каждый шаг получает на вход результат предыдущего и выполняет часть общей задачи. Этот подход улучшает интерпретируемость, но является менее гибким.
  • Маршрутизация и выбор инструмента (Router Pattern). Агент сначала классифицирует тип входной задачи, после чего выбирает специальный процесс или инструмент для её решения, действуя как диспетчер.
  • Параллельный поиск решений. Вместо одного линейного хода мыслей исследуется сразу несколько вариантов решения. Примером является подход Tree-of-Thoughts, где агент разветвляет цепочку рассуждений подобно дереву, генерируя на каждом шаге несколько «мыслей»-кандидатов и отбирая наиболее перспективные[6].
  • Рефлексия и самокоррекция. Агент критически оценивает собственные решения и учится на ошибках. В методе Reflexion агент после каждой попытки анализирует результат и сохраняет выводы, которые использует в последующих циклах[4].

Примеры известных подходов

  • ReAct (Reasoning and Acting) — основополагающий метод (2022), который сочетает рассуждение и действие. LLM генерирует вперемежку логические выводы (thoughts) и конкретные шаги-действия (actions), которые выполняются с помощью инструментов[7].
  • Reflexion (2023) — фреймворк саморефлексии, позволяющий агентам обучаться на собственных ошибках через текстовую обратную связь, без обновления весов модели[4].
  • Tree-of-Thoughts (ToT) (2023) — фреймворк, обобщающий идею Chain-of-Thought для организации поиска решения в виде дерева, что позволяет модели обдумывать несколько вариантов развития событий[6].
  • Auto-GPT (2023) — один из первых широко известных открытых проектов, демонстрирующих полностью автономный агентный workflow. Система генерирует группу специализированных GPT-4-агентов, которые совместно планируют и выполняют шаги для достижения высокоуровневой цели, заданной пользователем[3].

Применение и влияние

Агентные подходы находят применение во множестве сфер, где требуются интеллектуальная автоматизация и гибкость.

  • Бизнес-процессы: Агентные системы расширяют возможности чат-ботов техподдержки, которые могут самостоятельно диагностировать проблемы и находить решения. Они также используются в финансах, управлении персоналом и маркетинге[1].
  • Генеративные симуляции: Автономные LLM-агенты могут моделировать сложное поведение сообществ или персонажей. В работе «Generative Agents» (Park et al., 2023) десятки GPT-агентов, наделённые разными личностями, правдоподобно имитировали социальную жизнь в смоделированном городке.

По оценке аналитиков Gartner, агентный ИИ (Agentic AI) включён в число стратегических технологических трендов 2025 года[1].

Проблемы и перспективы развития

Несмотря на успехи, агентные LLM-системы остаются новой и сложной технологией.

  • Затраты ресурсов: Каждый дополнительный шаг планирования, поиска или самоанализа — это отдельный вызов LLM, что увеличивает время выполнения и стоимость.
  • Непредсказуемость поведения: Чем больше свободы у агента, тем труднее гарантировать, какой маршрут он выберет. Это требует внедрения ограничений и защитных механизмов (guardrails).
  • Оценка качества и отладка: Анализировать обширные логи многошаговых систем для поиска ошибок — нетривиальная задача.
  • Безопасность и этика: С увеличением автономности ИИ возникает необходимость гарантировать, что агенты действуют в интересах пользователя и общества.

Будущие исследования направлены на создание универсальных средств использования инструментов, разработку единых сквозных workflow и оптимизацию эффективности агентных систем[8].

Ссылки

Литература

  • Yao, S. et al. (2022). ReAct: Synergizing Reasoning and Acting in Language Models. arXiv:2210.03629.
  • Schick, T. et al. (2023). Toolformer: Language Models Can Teach Themselves to Use Tools. arXiv:2302.04761.
  • Liu, X. et al. (2023). AgentBench: Evaluating LLMs as Agents. arXiv:2308.03688.
  • Yao, S. et al. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. arXiv:2305.10601.
  • Shinn, N. et al. (2023). Reflexion: Language Agents with Verbal Reinforcement Learning. arXiv:2303.11366.
  • Park, J. S. et al. (2023). Generative Agents: Interactive Simulacra of Human Behavior. arXiv:2304.03442.
  • Wang, G. et al. (2023). Voyager: An Open-Ended Embodied Agent with Large Language Models. arXiv:2305.16291.
  • Bakhtin, A. et al. (2022). Human-Level Play in the Game of Diplomacy by Combining Language Models with Strategic Reasoning. Science. DOI:10.1126/science.ade9097.
  • Wang, L. et al. (2025). A Survey on Large Language Model based Autonomous Agents. arXiv:2308.11432.
  • Li, X. (2024). A Survey on LLM-Based Agentic Workflows and LLM-Profiled Components. arXiv:2406.05804.
  • Jung, J. et al. (2024). Trust or Escalate: LLM Judges with Provable Guarantees for Human Agreement. arXiv:2407.18370.
  • Xu, W. et al. (2025). A-MEM: Agentic Memory for LLM Agents. arXiv:2502.12110.
  • He, G. et al. (2025). Plan-Then-Execute: An Empirical Study of User Trust and Team Performance When Using LLM Agents as a Daily Assistant. arXiv:2502.01390.
  • Huang, X. et al. (2024). Understanding the Planning of LLM Agents: A Survey. arXiv:2402.02716.
  • Kuang, Z. et al. (2023). PEARL: Prompting Large Language Models to Plan and Execute Reasoning over Long Documents. arXiv:2305.14564.

Примечания

  1. 1,0 1,1 1,2 1,3 1,4 «What are Agentic Workflows?». IBM. [1]
  2. 2,0 2,1 «What Are Agentic Workflows? Patterns, Use Cases, Examples, and More». Weaviate. [2]
  3. 3,0 3,1 «What is AutoGPT?». IBM. [3]
  4. 4,0 4,1 4,2 Shinn, N. et al. «Reflexion: Language Agents with Verbal Reinforcement Learning». arXiv:2303.11366, 2023. [4]
  5. «Agentic Workflows in 2025: The ultimate guide». Vellum.ai. [5]
  6. 6,0 6,1 Yao, S. et al. «Tree of Thoughts: Deliberate Problem Solving with Large Language Models». arXiv:2305.10601, 2023. [6]
  7. Yao, S. et al. «ReAct: Synergizing Reasoning and Acting in Language Models». arXiv:2210.03629, 2022. [7]
  8. Li, X. «A Survey on LLM-Based Agentic Workflows and LLM-Profiled Components». arXiv:2406.05804, 2024. [8]