Workflows agênticos (Agentic workflows)

From Systems analysis wiki
Jump to navigation Jump to search

Workflows Agênticos (do inglês, Agentic Workflows) são processos dinâmicos de múltiplos passos nos quais agentes de IA autônomos, baseados em grandes modelos de linguagem (LLMs), tomam decisões, executam ações e coordenam tarefas de forma independente, com mínima intervenção humana[1]. Nesses sistemas, o LLM é utilizado não apenas para gerar uma resposta a uma única solicitação, mas também para planejar uma sequência de ações, interagir com ferramentas externas e melhorar iterativamente o resultado.

Diferentemente da automação tradicional, baseada em regras rigidamente programadas, as abordagens agênticas possuem flexibilidade — elas podem se adaptar a novos dados e condições imprevistas. Um workflow agêntico difere de uma simples chamada a um LLM (por exemplo, para resumir um texto) pelo fato de que o agente recebe autonomia na escolha das ações, o que inclui planejamento, uso de ferramentas e autocorreção[2].

Componentes e arquitetura de um workflow agêntico

Um workflow agêntico combina vários componentes-chave para atingir um objetivo.

Agente de IA e LLM

No centro do processo está o agente de IA — um programa autônomo que atua em nome de um usuário ou sistema. O componente-chave do agente é um grande modelo de linguagem, que permite a compreensão de instruções em linguagem natural e a geração do raciocínio necessário. A qualidade do trabalho do agente depende significativamente da engenharia de prompts — diferentes esquemas de prompts (por exemplo, Chain-of-Thought) ajudam a ajustar o LLM para o estilo de trabalho desejado[1].

Ferramentas (acesso a ações externas)

Como o conhecimento de um LLM é limitado aos seus dados de treinamento, o agente recebe ferramentas externas que expandem suas capacidades. As ferramentas podem incluir acesso a bases de conhecimento, motores de busca, APIs, interpretadores de código e outras aplicações. Com a ajuda delas, o agente obtém informações atualizadas ou executa ações reais fora do próprio modelo[2].

Memória e contexto

Uma característica distintiva dos workflows agênticos é a presença de um mecanismo de memória, que permite ao agente levar em conta a experiência e o contexto anteriores.

  • A memória de curto prazo retém informações recentes (por exemplo, o histórico de um diálogo) dentro da sessão atual.
  • A memória de longo prazo armazena conhecimentos e resultados acumulados ao longo de muitas execuções, frequentemente utilizando armazenamentos externos (como bancos de dados vetoriais)[3].

Feedback e correção

Mecanismos de feedback desempenham um papel crucial no aumento da confiabilidade. O agente pode receber feedback do ambiente de execução da tarefa, de um modelo auxiliar "crítico" ou de um ser humano (modo human-in-the-loop). Por exemplo, o sistema Reflexion implementa um autofeedback interno: o agente analisa seus próprios erros e armazena "reflexões" na memória para aprimorar tentativas subsequentes[4].

Configurações multiagente

Em cenários complexos, é utilizada uma arquitetura multiagente, na qual vários agentes especializados interagem entre si. Por exemplo, um agente "planejador" define subtarefas, enquanto vários agentes "executores" resolvem suas tarefas específicas (busca de dados, cálculos, etc.)[1].

Padrões e algoritmos típicos de trabalho dos agentes

Embora ainda não exista uma arquitetura padronizada universal para sistemas de LLM agênticos, padrões recorrentes começaram a surgir em 2023-2024[5].

  • Planejamento passo a passo (Prompt Chaining). A tarefa é dividida em uma sequência de etapas por meio de uma cadeia de chamadas ao LLM. Cada passo recebe como entrada o resultado do passo anterior e executa parte da tarefa geral. Essa abordagem melhora a interpretabilidade, mas é menos flexível.
  • Roteamento e seleção de ferramentas (Router Pattern). O agente primeiro classifica o tipo de tarefa de entrada e, em seguida, seleciona um processo ou ferramenta especial para resolvê-la, agindo como um despachante.
  • Busca paralela por soluções. Em vez de um único fluxo de pensamento linear, várias opções de solução são exploradas simultaneamente. Um exemplo é a abordagem Tree-of-Thoughts, onde o agente ramifica a cadeia de raciocínio como uma árvore, gerando em cada passo vários "pensamentos" candidatos e selecionando os mais promissores[6].
  • Reflexão e autocorreção. O agente avalia criticamente suas próprias decisões e aprende com os erros. No método Reflexion, após cada tentativa, o agente analisa o resultado e salva conclusões que utiliza em ciclos subsequentes[4].

Exemplos de abordagens conhecidas

  • ReAct (Reasoning and Acting - Raciocínio e Ação) — um método fundamental (2022) que combina raciocínio e ação. O LLM gera, de forma intercalada, conclusões lógicas (thoughts ou pensamentos) e passos de ação concretos (actions ou ações), que são executados com o auxílio de ferramentas[7].
  • Reflexion (2023) — um framework de autorreflexão que permite aos agentes aprender com seus próprios erros por meio de feedback textual, sem atualizar os pesos do modelo[4].
  • Tree-of-Thoughts (ToT) (2023) — um framework que generaliza a ideia de Chain-of-Thought para organizar a busca por uma solução na forma de uma árvore, o que permite ao modelo ponderar sobre várias alternativas de desenvolvimento[6].
  • Auto-GPT (2023) — um dos primeiros projetos de código aberto amplamente conhecidos a demonstrar um workflow agêntico totalmente autônomo. O sistema gera um grupo de agentes GPT-4 especializados que planejam e executam passos em conjunto para alcançar um objetivo de alto nível definido pelo usuário[3].

Aplicação e impacto

As abordagens agênticas encontram aplicação em diversas áreas que exigem automação inteligente e flexibilidade.

  • Processos de negócios: Sistemas agênticos expandem as capacidades dos chatbots de suporte técnico, que podem diagnosticar problemas e encontrar soluções de forma autônoma. Eles também são utilizados em finanças, gestão de recursos humanos e marketing[1].
  • Simulações generativas: Agentes de LLM autônomos podem modelar o comportamento complexo de comunidades ou personagens. No trabalho “Generative Agents” (Park et al., 2023), dezenas de agentes GPT, dotados de diferentes personalidades, simularam de forma verossímil a vida social em uma cidade simulada.

Segundo analistas do Gartner, a IA agêntica (Agentic AI) está incluída entre as tendências tecnológicas estratégicas para 2025[1].

Desafios e perspectivas de desenvolvimento

Apesar dos sucessos, os sistemas de LLM agênticos continuam sendo uma tecnologia nova e complexa.

  • Custos de recursos: Cada passo adicional de planejamento, busca ou autoanálise representa uma chamada separada ao LLM, o que aumenta o tempo de execução e o custo.
  • Imprevisibilidade do comportamento: Quanto mais liberdade um agente tem, mais difícil é garantir qual caminho ele escolherá. Isso exige a implementação de restrições e mecanismos de proteção (guardrails).
  • Avaliação de qualidade e depuração: Analisar logs extensos de sistemas de múltiplos passos para encontrar erros é uma tarefa não trivial.
  • Segurança e ética: Com o aumento da autonomia da IA, surge a necessidade de garantir que os agentes atuem no interesse do usuário e da sociedade.

Pesquisas futuras visam criar meios universais para o uso de ferramentas, desenvolver workflows unificados de ponta a ponta e otimizar a eficiência dos sistemas agênticos[8].

Literatura

  • Yao, S. et al. (2022). ReAct: Synergizing Reasoning and Acting in Language Models. arXiv:2210.03629.
  • Schick, T. et al. (2023). Toolformer: Language Models Can Teach Themselves to Use Tools. arXiv:2302.04761.
  • Liu, X. et al. (2023). AgentBench: Evaluating LLMs as Agents. arXiv:2308.03688.
  • Yao, S. et al. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. arXiv:2305.10601.
  • Shinn, N. et al. (2023). Reflexion: Language Agents with Verbal Reinforcement Learning. arXiv:2303.11366.
  • Park, J. S. et al. (2023). Generative Agents: Interactive Simulacra of Human Behavior. arXiv:2304.03442.
  • Wang, G. et al. (2023). Voyager: An Open-Ended Embodied Agent with Large Language Models. arXiv:2305.16291.
  • Bakhtin, A. et al. (2022). Human-Level Play in the Game of Diplomacy by Combining Language Models with Strategic Reasoning. Science. DOI:10.1126/science.ade9097.
  • Wang, L. et al. (2025). A Survey on Large Language Model based Autonomous Agents. arXiv:2308.11432.
  • Li, X. (2024). A Survey on LLM-Based Agentic Workflows and LLM-Profiled Components. arXiv:2406.05804.
  • Jung, J. et al. (2024). Trust or Escalate: LLM Judges with Provable Guarantees for Human Agreement. arXiv:2407.18370.
  • Xu, W. et al. (2025). A-MEM: Agentic Memory for LLM Agents. arXiv:2502.12110.
  • He, G. et al. (2025). Plan-Then-Execute: An Empirical Study of User Trust and Team Performance When Using LLM Agents as a Daily Assistant. arXiv:2502.01390.
  • Huang, X. et al. (2024). Understanding the Planning of LLM Agents: A Survey. arXiv:2402.02716.
  • Kuang, Z. et al. (2023). PEARL: Prompting Large Language Models to Plan and Execute Reasoning over Long Documents. arXiv:2305.14564.

Referências

  1. 1.0 1.1 1.2 1.3 1.4 “What are Agentic Workflows?”. IBM. [1]
  2. 2.0 2.1 “What Are Agentic Workflows? Patterns, Use Cases, Examples, and More”. Weaviate. [2]
  3. 3.0 3.1 “What is AutoGPT?”. IBM. [3]
  4. 4.0 4.1 4.2 Shinn, N. et al. “Reflexion: Language Agents with Verbal Reinforcement Learning”. arXiv:2303.11366, 2023. [4]
  5. “Agentic Workflows in 2025: The ultimate guide”. Vellum.ai. [5]
  6. 6.0 6.1 Yao, S. et al. “Tree of Thoughts: Deliberate Problem Solving with Large Language Models”. arXiv:2305.10601, 2023. [6]
  7. Yao, S. et al. “ReAct: Synergizing Reasoning and Acting in Language Models”. arXiv:2210.03629, 2022. [7]
  8. Li, X. “A Survey on LLM-Based Agentic Workflows and LLM-Profiled Components”. arXiv:2406.05804, 2024. [8]