Agent 逐步开启了从执行单一任务到复杂决策的转变,从传统自然语言智能体进化成大语言模型智能体。底层模型能力正以日新月异的速度不断增强。近期绿洲与商汤科技大模型事业部,担任资深研究员的毛航宇老师共同讨论 Agent 的未来。作为拥有近 10 年多智能体及强化学习研究经历的毛航宇老师,他所参与的 TPTU(任务规划与工具使用)框架,以及对 One-Step Agent 与 Sequential Agent 的创新设计,为绿洲近期对于 AI Alignment 研究以及 Agent 应用思考带来了新的启发。
绿洲:能否简单帮我们介绍一下您过去的背景以及研究经历?
毛老师:我 2015-2020 年在北大博士期间主要做多智能体强化学习,到博四第一次接触用强化学习去训练 GPT 模型,那时候还不叫大语言模型,我们当时做了基于模型的任务型对话设置,比如打车、医院类的任务,后来关注到了自然语言处理,开始做 NLP Agent。同年 Transformer 爆火,后来 OpenAI 也基于强化学习推出了 ChatGPT,所以从博四到现在,我的部分研究核心转到了 NLP Agent 之上。
绿洲:大模型从传统自然语言智能体(NLP Agent)到大语言模型智能体(LLM-based Agent)经历了什么样的变化?
毛老师:我们从深度学习到 Transformer 阶段的 NLP Agent 看到了非常震惊的变化,当时有很多网络 NPC 游戏都基于深度学习智能体之上,到现在来看是非常浅的网络,用基层的网络就能控制一个虚拟的智能体,完成游戏中各种小游戏,包括 AlphaGo 等能够击败世界冠军也是同样的原理。但我们发现深度学习时代的 Agent 很难做通用,一个 Agent 只能解决一类问题,且实际上有很多细节问题很难执行。
到了大模型时期的 Agent,底层 GPT 提供的强大的泛化能力,能够具备所谓的场景中的世界模型(World Model)理解能力,普通的 Agent 能够完成非常多的任务,这个时候我感觉它类似于 2015 年的深度Q网络(DQN,Deep Q-Network)的盛况。后来基于世界模型,只要用户提供一些简单的提示词就能解决各种各样的问题,当时我就立即转到了 NLP 领域的 Agent 进行研究,我认为这代表着未来和更有潜力的 Agent 发展。
绿洲:在多智能体强化学习研究中,您觉得 MARL 本质上在解决什么样的问题?
毛老师:MARL 本质解决了什么问题是非常难定义的,MARL 是一个非常大的框架,主要解决智能体之间的交互问题,涉及到合作、竞争、既合作又竞争的场景。我目前研究的强化学习可分为传统马尔可夫决策过程(MDP)和分布式马尔可夫决策过程(Dec-MDP,Decentralized MDP),后者是多个智能体,既分散又能够实现部分观测的建模方式。Agent System 的求解非常复杂,所以我在解决多智能体交互场景下会选择合作场景,合作场景 Agent 的任务目标更一致。
绿洲:能否帮我们解释一下,当时做 TPTU 架构专注于规划与工具使用的原因?
毛老师:这个过程很有意思,OpenAI 当时做了非常多前期铺垫工作,其中有代表性的是 2023 年 3 月份的时候,官方发布了一个叫 Plugins 的插件,核心在于工具调用,他们当时保留了自己的 Plugins 插件,包括代码解读器(Code Interpreter)、外部搜索等,我们当时还加了三个功能比较通用的工具,包括Python、语言执行等。那时候我们就有概念了,我们知道大概率未来 Agent 的工具使用会以 API 形式进行调用,后来针对这个也发了论文。另外我们内部也有很多真实的工作系统,很多关键的 API 可以被作为细颗粒度工具进行调用。
做任务规划的核心原因是从强化学习的角度,解决真实的问题需要多步决策,很难一步把问题解决。我们当时也对标了 OpenAI 官方做法,通过自然语言描述去拆分子问题,最后我们形成了我们任务规划的流程。
绿洲:能否帮我们再具体介绍 One-Step Agent 与 Sequential Agent 的框架设立思路?
毛老师:当时起的 One-Step Agent 其实叫法不准确,One-Step Agent 能够快速生成子问题一、二、三,所以叫 One-Shot Agent 会更好。另外做了子任务拆分之后,第一步只做生成,第二个子问题会将第一个子问题的答案同样输入,这样既参考用户原始的问题和答案,又能在第二个问题中选择更好的子工具来进行解决,这样能够将之前的经验全部学习到新的任务步骤解决中,更好地进行下一步的子问题工具调用,其中的实现方式利用提示词的 In-Context Learning 进行学习。
绿洲:当前 Agent 规划与工具使用的不同能力缺点,未来将有什么办法改进?
毛老师:目前我们在 TPTU v2 中已经有一部分的改进,首先我们认为 TPTU 架构在 Agent 框架已经有基础的规划和工具调用能力之后,能够更好地提升它的能力。第一我们解决了如何在多个工具中进行召回的问题,叫作 API Retriever 的工具;第二我们在筛选好的 API 的过程中,更好地提升 Agent 语义描述能力,能够在某个任务发生之后更准确地调用某个 API;第三我们为 Agent 提供了案例学习,让 Agent 能够更好地解决某些未知任务。
在 API Retriever 工具中,其实我们面临了非常多的实际挑战,例如训练数据集如何生成,训练如何加速,训练小规模如何降本增效等,在工具初筛环节,API Retriever 非常高效。
绿洲:TPTU 最终能在哪几个应用空间更好地应用?
毛老师:应用空间不一定非得到具体某个场景,例如安防、政务等,反正商家内部使用可能特别多,比如一个 B 端系统内本身就有非常多 API,如果你想调用其中常用的 10%,这种就特别适合大语言模型来做,To C 端例如个人助手也是可以大规模应用的。
绿洲:底层模型能力不断地增强,对于 Agent 有什么样的能力提升?
毛老师:我认为核心要加强 Agent 的底层能力,我的经验是需要在垂域上做微调,通用大语言模型很难理解业务逻辑。目前国外普遍相信通用的 AGI,国内普遍相信垂域的 AGI,我更想做一个垂域的 AGI,背后的原因是大语言模型的通用能力还不强,考虑 PMF 的因素下,我想把应用能力约束到语言模型能力边界之内。
绿洲:您研究强化学习这么多年,如何看到 PPO 和 DPO 目前的发展态势?
毛老师:强化学习本身已经非常老了,PPO 以及孪生兄弟 TRPO 都是 2015 年和 2017 年的工作,强化学习本身技术发展其实是非常慢的。在大模型的强化学习领域,我们也在探索是否 PPO-based 的在线或者 On Policy 微调大语言模型效果最好。DPO 是给定了数据集之后进行优化,奖励模型以及策略在同时优化,实际上不像强化学习优化,而更像 SFT 监督微调的方式,目前闭源的微调方式是 PPO,开源的微调方式是 DPO。
然而目前大家觉得 DPO 要达到 PPO 的优化效果,必须模仿 PPO 的 On Policy,也就是必须达到 PPO 的在线学习(Online Learning)或者交互式策略(Interactive PPO)来进行性能提升。这个和人学习的过程是一样的,人一直是根据当前的情况进行微调,而不是根据一定时间之前的情况进行学习。
绿洲:能不能帮我们解释一下大模型本身缺陷也能作为功能实用的原理?
毛老师:理科生的严肃场景,Hallucination 是非常大的痛点。但对于文科生,比如我们需要进行想象,生成一些多模态的内容、小说、图像,Hallucination 其实是一个非常不错的优势,能够产生更丰富的想象力。
绿洲:能否帮我们简单介绍大规模智能体应用(Large Scale Agent)的工作?
毛老师:Agent 能解决的最重要的任务其实就是决策推理类任务,或者说具备反思性的任务。未来真实的世界由多智能体构成,做大规模多智能体研究,在不考虑任何成本的情况下是非常有潜力的研究方向。另外多智能体的推理速度现在也是问题,比如强化学习里的探索和利用,在生成过程中是完全不一样的,很多 Agent 的探索和利用代价非常大,我们怎么降低代价,其实底层是做了一些框架设计的工作的,我们做了一个集中标准(Centralized Critics),在 Critics 数量变少之后,一个负责探索一个负责利用,能够更好地解决单个问题。最后如何平衡探索和利用也是非常关键的点,我们做了第三个 Agent,也就是把探索和利用最终总结为 3 个 Agent 的交互,这提供了一个思考的维度,表达了我们怎么样思考 Large Scale Agent 以及 MARL 的实现方式。
文章来源:绿洲资本Vitalbridge
1 个月前
根据《Nature》最新发表的研究,非营利研究机构METR发现了一项被称为“智能体摩尔定律”的规律,即AI智能体(Agent)在完成长期任务方面的能力每7个月翻一番。这一发现揭示了AI在任务完成时间跨度上的指数级增长趋势,并提出了“50%-任务完成时间跨度”这一新指标来衡量AI的能力变化。 核心发现 能力翻倍周期:自2019年以来,AI智能体完成任务的时间跨度每7个月翻一番。这意味着,如果2019年AI完成某项任务所需时间对应人类需要10分钟,那么7个月后,这一时间将缩短至20分钟。 加速趋势:2024年,AI能力的增长速度进一步加快,部分最新模型的能力每3个月翻一番。 未来预测:按照这一趋势,预计5年后(即2030年左右),AI将能够完成许多当前需要人类花费一个月时间才能完成的任务。 研究方法 METR团队通过以下步骤验证了这一规律: 任务设计:设计了170个多样化任务,涵盖软件工程、机器学习、网络安全等领域,并测量人类专家完成这些任务所需的时间,建立“人类基准线”。 指标引入:提出了“50%-任务完成时间跨度”指标,即AI在50%成功率下完成任务的时间长度。这一指标对数据分布的微小变化具有鲁棒性。 模型评估:评估了2019年至2025年间发布的13个前沿AI模型(如GPT系列、Sonnet 3.7等),通过逻辑回归分析计算每个模型的时间跨度。 验证与外部实验 为了验证结果的可靠性,研究团队进行了多项外部实验,包括: 回溯预测:使用2023-2025年数据验证趋势一致性。 任务混乱度分析:评估任务复杂性对AI性能的影响,发现AI在复杂任务上的提升速度与简单任务相似。 基准测试:在SWE-bench等数据集上验证了类似的指数增长趋势。 意义与影响 技术进步:这一发现标志着AI在执行长期任务能力上的显著进步,可能推动AI在软件开发、研究等领域的广泛应用。 劳动力市场影响:AI能力的快速提升可能对劳动力市场产生深远影响,未来或替代部分人类工作,尤其是重复性和耗时任务。 社会挑战:研究提醒社会各界需关注AI技术进步带来的就业和经济挑战,并提前制定应对策略。 未来展望 METR团队预测,按照当前趋势,AI可能在2028年11月达到一个月的任务时间跨度,保守估计则在2031年2月实现。尽管研究存在任务局限性和未来不确定性,但团队确信AI能力每年有1~4倍的增长趋势。 这项研究为AI技术的发展提供了新的量化标准,同时也引发了对AI未来应用和影响的深入思考。
1 个月前
阿里推出新夸克,集成AI对话、深度搜索、深度执行等功能,标志着其从搜索引擎向AI Agent的转型。 新夸克接入通义系列模型,用户规模超2亿,DAU达3430万,位居AI应用榜首。
1 个月前
2025 年 3 月 12 日消息,OpenAI 发布 Agent 工具包,推出一组新的 API 和工具以简化 Agent 应用程序开发,包括新的 Responses API、网络搜索、文件搜索、计算机使用工具和 Agents SDK 等,还计划在接下来的几周和几个月内发布其他工具和功能。
2 个月前
Replit Agent 是由 Replit 2024年9月推出的一款基于人工智能的编程工具,旨在通过自然语言提示帮助用户自动构建应用程序。它覆盖了从代码编写、开发环境配置到调试和部署的整个软件开发流程,极大地简化了开发过程,尤其适合从零开始构建 Web 应用程序原型。以下是关于 Replit Agent 的详细介绍: 1. 核心功能 Replit Agent 的主要功能包括: 自然语言生成代码:用户可以通过输入详细的自然语言提示(如“创建一个待办事项应用”),Replit Agent 会自动选择适当的编程语言、框架和技术栈,并生成代码原型。这一功能大大降低了编程门槛,即使是没有编程经验的用户也能快速上手。 开发环境配置:Replit Agent 能够自动设置开发环境,安装所需的依赖项,避免了繁琐的手动配置过程。 项目协作助手:在项目构建过程中,用户可以与 Replit Agent 互动,提供 API 密钥、反馈或方向指导,Agent 会根据这些信息调整和优化项目。 快速原型开发:Replit Agent 特别擅长从零到一构建 Web 应用程序原型,能够在几分钟内生成可交互的应用原型,例如创建一个类似 Wordle 的小游戏或一个优惠券生成器。 迭代与测试:用户可以对生成的开发计划进行修改、删除或重新生成,并实时跟踪开发进度,进行应用的测试和调试。 跨平台支持:除了 Web 端,Replit Agent 还支持通过 Replit 移动应用使用,方便用户随时随地进行开发。 部署支持:项目完成后,用户可以直接通过 Replit 的部署功能将应用程序上线,实现开发与部署的无缝对接。 2. 适用场景 Replit Agent 适用于多种开发场景: 快速原型制作:初创企业或个人开发者可以利用 Replit Agent 快速生成产品原型,验证创意可行性。 个性化应用开发:从简单的优惠券生成器到复杂的 3D 游戏,Replit Agent 都能在短时间内完成开发并部署上线。 教育领域:Replit Agent 为编程教育提供了直观的工具,学生可以通过自然语言输入快速看到代码生成效果,降低学习门槛。 自动化工作流:用户可以用 Replit Agent 替代昂贵的自动化工具(如 Zapier),构建自定义的工作流解决方案。 3. 技术特点 自然语言接口:Replit Agent 支持自然语言输入,用户无需掌握复杂的编程语法即可启动项目。 多语言支持:支持多种主流编程语言,如 JavaScript、Python、Node.js 等,能够满足不同类型的开发需求。 自动化程度高:从环境配置到代码生成再到部署,Replit Agent 能够自动化处理整个开发流程,显著提升开发效率。 沙盒环境:提供安全的代码评估环境,支持新功能的测试和验证。 4. 使用方式 Replit Agent 目前仅对 Replit Core 和 Teams 订阅用户开放早期访问。使用步骤如下: 登录 Replit 账号:确保已订阅 Replit Core 或 Teams 计划。 创建项目:在 Replit 主页或移动应用中输入自然语言提示,描述想要构建的应用。 生成原型:Replit Agent 会根据提示自动生成代码和开发计划。 迭代与测试:用户可以修改开发计划,跟踪进度,并进行测试。 部署应用:完成开发后,通过 Replit 的部署功能将应用上线。 5. 优势与不足 优势: 降低开发门槛:即使是初学者也能通过自然语言提示快速构建应用。 快速开发:从想法到部署只需几分钟,适合快速验证创意。 全流程自动化:覆盖从环境配置到部署的整个开发流程,节省时间和精力。 不足: 访问受限:目前仅对 Replit Core 和 Teams 用户开放,普通用户无法使用。 功能局限性:对于复杂项目或高度定制化的需求,Replit Agent 可能表现不足。
3 个月前
腾讯两大智能体平台:腾讯元器和 AppAgent。
3 个月前
Anthropic 于2024年12月发布的文章《Building effective agents》详细探讨了如何构建高效的大语言模型(LLM)代理系统。Anthropic 与数十个团队合作构建了跨行业的大语言模型(LLM) agent。最成功的实现往往不是使用复杂框架或专门库,而是采用简单、可组合的模式。本文分享Anthropic 的经验和实用建议: 1. 代理(Agents)的定义与分类 代理的定义: 代理可以被定义为完全自主的系统,能够在较长时间内独立运行,使用各种工具完成复杂任务。 也可以指遵循预定义工作流程的系统,这些系统通过预定义的代码路径协调LLM和工具。 工作流(Workflows)与代理(Agents)的区别: 工作流:通过预定义的代码路径编排LLM和工具,适合任务明确、步骤固定的场景。 代理:LLM动态指导自身的流程和工具使用,保持对任务完成方式的控制,适合需要灵活性和模型驱动决策的场景。 2. 何时使用代理 适用场景: 当任务复杂且需要灵活性和模型驱动的决策时,代理是更好的选择。 代理适合处理开放性问题,尤其是难以预测步骤或无法硬编码固定路径的任务。 不适用场景: 对于任务明确、步骤固定的场景,工作流提供更高的可预测性和一致性。 对于许多应用,优化单个LLM调用(配合检索和上下文示例)通常已足够。 3. 框架的使用建议 常用框架: LangGraph(LangChain)、Amazon Bedrock的AI Agent框架、Rivet(拖放式GUI工具)、Vellum(复杂工作流构建工具)。 使用建议: 开发者应优先直接使用LLM API,许多模式只需几行代码即可实现。 如果使用框架,需理解底层代码,避免因框架的抽象层增加调试难度和复杂性。 4. 构建模块与工作流模式 基础构建模块:增强型LLM 增强型LLM通过检索、工具使用和记忆等功能扩展能力,能够生成搜索查询、选择工具并保留重要信息。 核心工作流模式: 提示链(Prompt chaining):将任务分解为一系列步骤,每个LLM调用处理前一步的输出。适用于可分解为固定子任务的场景,如生成营销文案并翻译。 路由(Routing):对输入分类并引导至专门的后续任务。适用于复杂任务,如客户服务查询的分类处理。 并行化(Parallelization):将任务拆分为并行子任务或多次运行以获得多样化输出。适用于需要多视角或高置信度结果的场景。 编排者-执行者(Orchestrator-workers):中央LLM动态分解任务并分配给执行者LLM。适用于无法预测子任务的复杂场景,如编程任务。 评估者-优化者(Evaluator-optimizer):一个LLM生成响应,另一个提供评估和反馈。适用于需要迭代优化的任务,如文学翻译或复杂搜索。 5. 代理的实现与应用 代理的工作流程: 代理通过用户指令或交互明确任务,独立规划并执行,必要时向用户寻求反馈。 代理在每个步骤中从环境中获取“基准事实”(如工具调用结果)以评估进展。 适用场景: 编码代理:解决SWE-bench任务,根据任务描述编辑多个文件。 计算机使用代理:Claude通过计算机完成任务,如数据处理或信息检索。 6. 核心原则与总结 核心原则: 简单性:从简单设计开始,逐步增加复杂性。 透明性:明确展示代理的规划步骤。 工具设计:通过完善的文档和测试设计代理-计算机接口(ACI)。 总结: 成功的关键在于构建适合需求的系统,而非最复杂的系统。 框架可帮助快速启动,但在生产环境中应减少抽象层,使用基础组件构建。 7. 附录:代理的实际应用 客户支持:结合聊天机器人界面与工具集成,适用于开放式代理场景。 编码代理:在软件开发中,代理通过自动化测试验证代码解决方案,并迭代优化。 这篇文章为开发者提供了构建高效代理系统的实用指南,强调了简单性、透明性和工具设计的重要性,并通过丰富的案例展示了代理系统的实际应用价值。
4 个月前
DeepSeek(深度求索)是一家专注于大语言模型(LLM)和相关技术研发的创新型科技公司,成立于2023年7月,由知名量化私募巨头幻方量化创立。DeepSeek的AI产品主要包括以下几类: 语言模型 DeepSeek-LLM:如包含67亿参数的DeepSeek-67b-base模型,基于海量的中英文token数据集训练,可用于多种自然语言处理任务. DeepSeek-Coder:是代码语言模型,如DeepSeek-Coder-v2-instruct在代码特定任务中性能可比肩GPT-4 Turbo,可辅助编程及代码相关的自然语言处理任务. DeepSeek-Math:旨在提升数学推理能力,例如DeepSeek-Math-7b-instruct等模型,可解决数学问题、进行数学相关的文本生成和问答等. DeepSeek-Prover: 主要用于定理证明,通过优化训练和推理过程,为相关领域的研究和应用提供支持. 多模态模型 DeepSeek-VL:是开源的视觉-语言模型,可用于真实世界的视觉和语言理解应用,如视觉问答、图像字幕生成等. 应用平台 乾坤圈(AI Agent智能体平台):基于深擎自研的流程引擎研发,能够基于海量的大模型组件进行极速灵活编排,满足大模型场景快速搭建能力需求,内置了20多个工作流最佳实践、50多项金融领域的特色处理组件以及30多款应用场景,主要应用于金融行业. Janus:是统一的多模态理解和生成模型,可应用于多种需要多模态交互的场景. 内容产品与服务 个性化推荐引擎:如穿云箭,依托智能算法模型,基于用户的浏览行为,实现精准的内容推荐,帮助金融机构了解客户需求. 内容服务平台:如风火轮,整合各大财经资讯和自媒体内容,通过SaaS模式分发给客户,让信息获取及时可靠;白羽扇智能内容处理中心则进一步提高了内容分发的个性化和实时性,对投资标的、财经事件进行动态打标,优化客户体验.
4 个月前
通过与企业系统、API 和数据来源无缝连接,使生成式人工智能应用程序能够自动执行多步任务。
4 个月前
LangChain, Amazon Bedrock, Rivet, Vellum.
4 个月前
Gemini 1.0是为了组织和理解信息,Gemini 2.0则是为了让信息变得更有用。