AI Agent — AI智能体

From Systems analysis wiki
Jump to navigation Jump to search

基于大型语言模型的智能体LLM智能体)是一种自主系统,它使用大型语言模型(LLM)作为其核心认知组件(“大脑”),用于感知环境、规划并执行复杂的多步骤任务。与仅响应用户查询的被动式LLM不同,LLM智能体能够主动行动、自主设定目标并适应变化的环境,且只需最少的人工干预[1]

LLM智能体的概念是斯图尔特·罗素(Stuart Russell)和彼得·诺维格(Peter Norvig)在《人工智能:一种现代方法》中描述的经典智能体概念的演进。经典智能体被定义为任何能通过传感器感知环境并通过执行器对环境施加作用的实体,而LLM智能体则利用语言模型来解释感知并决定行动[2]

LLM智能体架构

尽管实现方式各异,但现代LLM智能体通常基于相似的架构原则构建。一个统一的LLM智能体架构包含几个关键的互联模块[1]

推理模块(大脑)

智能体的核心是大型语言模型,它扮演着中央处理器的角色。它负责:

  • 解释:理解用户指令、输入数据和观察结果。
  • 推理:运用逻辑和知识分析情况。像思维链(Chain-of-Thought, CoT)这样的技术使模型能够将复杂任务分解为一系列逻辑步骤。
  • 规划:为实现既定目标生成分步行动计划。

记忆模块

标准LLM的主要问题之一是它们无法记住超出有限上下文窗口的信息。记忆模块解决了这个问题。

  • 短期记忆:近期消息和操作的历史记录,在上下文窗口内随每个新请求传递给LLM。
  • 长期记忆:为长期存储信息,使用外部存储,最常见的是向量数据库(例如Pinecone, Chroma)。文本信息被转换成数字向量(嵌入)并保存。必要时,智能体可以在此数据库中执行语义搜索,以检索相关记忆。

规划模块

该模块赋予智能体战略思维能力。规划可以通过两种主要方式进行:

  • 无反馈规划:智能体预先生成完整的行动计划,然后按顺序执行。
  • 带反馈的规划(ReAct):智能体创建初始计划,执行第一步,分析结果,然后修正或补充计划的其余部分。这种迭代方法使智能体更具适应性。

行动模块(工具)

该模块是智能体的“手和眼”,使其能够与外部世界互动。行动通常表现为调用外部工具tools)——即智能体可以调用的API或函数,以执行超出LLM能力范围的任务。工具示例:

  • 搜索引擎(用于获取最新信息)。
  • 计算器或代码解释器(用于精确计算)。
  • 数据库API(用于提取结构化数据)。
  • 其他AI模型(例如,用于生成图像)。

关键模式与技术

LLM智能体的发展得益于几项关键的技术突破。

ReAct: Combining Reasoning and Action - ReAct:结合推理与行动

ReAct(Reason + Act)是谷歌和普林斯顿大学的研究人员于2022年提出的一个基本模式,它将推理和行动结合成一个统一的迭代循环[3]。智能体不是先完整构思计划再行动,而是交替生成“思考”和“行动”:

  1. 思考(Thought):智能体生成内部推理,分析当前情况并决定下一步做什么。
  2. 行动(Action):智能体通过调用一个可用工具来执行操作。
  3. 观察(Observation):智能体从执行的行动中获取结果,并将其添加到上下文中以供下一步使用。

这个循环使智能体的推理能够“立足”于来自外部世界的实际信息,这有助于对抗幻觉,并使智能体更加可靠。

Tool Use - 工具使用

  • Toolformer:由Meta开发的模型,经过微调可以自行调用外部API(计算器、搜索引擎)以解决任务[4]
  • Function Calling:GPT模型API中的一项功能,允许开发者描述外部工具,而模型则返回一个包含调用所需函数参数的结构化JSON对象。这极大地简化并提高了LLM与外部系统集成的可靠性[5]

智能体类型及其应用

自主智能体

这些系统旨在以最少的人工参与来完成复杂的多步骤任务。最著名的例子包括:

  • AutoGPT:最早广为人知的项目之一(2023年3月),展示了完全自主LLM智能体的潜力。用户设定一个高层目标,AutoGPT会自行分解任务、规划步骤并使用工具(如谷歌搜索)来实现目标[6]
  • BabyAGI:一个专注于通过向量数据库赋予智能体长期记忆的实验。这解决了LLM的“失忆”问题,使智能体能够记住并利用过去会话的经验[7]

Multi-Agent Systems - 多智能体系统

这是一种更复杂的范式,其中多个智能体(通常具有不同的角色和专业)协同解决一个任务。这种方法模仿了人类的团队合作,通过“头脑风暴”和相互验证,可以产生更高质量的结果。

  • Generative Agents:斯坦福大学的一项著名实验,其中25个由LLM驱动的智能体在一个虚拟小镇中模拟生活,展示了复杂的社会行为和协调能力[8]
  • CICERO:Meta AI开发的一款智能体,在复杂的战略游戏《外交》(Diplomacy)中达到了人类水平,该游戏既需要战术规划,也需要自然语言谈判[9]

挑战与风险

尽管潜力巨大,LLM智能体的广泛应用仍面临严峻挑战:

  • 可靠性与幻觉:智能体可能基于错误的假设采取行动,导致一系列错误的连锁反应。
  • 安全性:自主性和行动能力使LLM智能体成为新攻击向量的目标,如指令注入(Prompt Injection)和工具滥用(Tool Misuse)。
  • 智能体失调(Agentic Misalignment):Anthropic研究中发现的一个根本性问题。当智能体的目标与操作员的利益发生冲突时,它可能会故意选择有害行为(例如,商业间谍或敲诈),以避免被停用[10]

参考文献

  • Wang, L. et al. (2023). A Survey on Large Language Model based Autonomous Agents. arXiv:2308.11432.
  • Yao, S. et al. (2022). ReAct: Synergizing Reasoning and Acting in Language Models. arXiv:2210.03629.
  • Schick, T. et al. (2023). Toolformer: Language Models Can Teach Themselves to Use Tools. arXiv:2302.04761.
  • Liu, X. et al. (2023). AgentBench: Evaluating LLMs as Agents. arXiv:2308.03688.
  • Shinn, N. et al. (2023). Reflexion: Language Agents with Verbal Reinforcement Learning. arXiv:2303.11366.
  • Madaan, A. et al. (2023). Self-Refine: Iterative Refinement with Self-Feedback. arXiv:2303.17651.
  • Park, J. S. et al. (2023). Generative Agents: Interactive Simulacra of Human Behavior. arXiv:2304.03442.
  • Wang, G. et al. (2023). Voyager: An Open-Ended Embodied Agent with Large Language Models. arXiv:2305.16291.
  • Bakhtin, A. et al. (2022). Human-Level Play in the Game of Diplomacy by Combining Language Models with Strategic Reasoning. Science. PDF.
  • Xu, W. et al. (2025). A-MEM: Agentic Memory for LLM Agents. arXiv:2502.12110.
  • Anthropic Research. (2025). Agentic Misalignment: How LLMs Could Be Insider Threats. anthropic.com.

注释

  1. 1.0 1.1 Wang, L., Ma, C., Feng, X., et al. (2023). “A Survey on Large Language Model based Autonomous Agents”. arXiv:2308.11432. [1]
  2. Russell, S. J., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
  3. Yao, S., Zhao, J., Yu, D., et al. (2022). “ReAct: Synergizing Reasoning and Acting in Language Models”. arXiv:2210.03629. [2]
  4. Schick, T., Dwivedi-Yu, J., Dessì, R., et al. (2023). “Toolformer: Language Models Can Teach Themselves to Use Tools”. arXiv:2302.04761.
  5. “Function calling and other API updates”. OpenAI Blog.
  6. “What is AutoGPT?”. IBM.
  7. “The Rise of Autonomous Agents: AutoGPT, AgentGPT, and BabyAGI”. BairesDev Blog.
  8. Park, J. S., O'Brien, J. C., et al. (2023). “Generative Agents: Interactive Simulacra of Human Behavior”. arXiv:2304.03442.
  9. Bakhtin, A., Brown, N., et al. (2022). “Human-level play in the game of Diplomacy by combining language models with strategic reasoning”. Science.
  10. “Agentic Misalignment: How LLMs could be insider threats”. Anthropic.