腾讯在AI代理(智能体)领域进行了广泛的探索和开发,以下是一些主要的AI代理或智能体产品:
简介:
AppAgent是腾讯推出的能够操作手机的AI大模型智能代理。它是一种由AI大型语言模型提供支持的高级多模式代理,能够利用任何应用程序来执行复杂的任务。
功能:
通过直观的点击和滑动手势与应用程序交互,模仿人类的动作。它基于LLM的多模式AI代理框架,使用简化的动作空间来操作智能手机应用程序,从而绕过了对系统后端访问的需求,扩大了其在不同应用程序中的适用性。
学习方法:
AppAgent的学习方法是其一大亮点。它能够通过自主探索或观察人类演示来学习导航和使用新应用程序,随着演示的增多和更多的操作,代理会变得越来越擅长此应用。
简介:
腾讯元器是腾讯公司推出的一站式AI智能体创作与分发平台,旨在让AI技术更贴近生活。它基于腾讯的强大混元大模型,让用户无需编程知识,就能轻松创建智能体,实现聊天、内容创作、图像生成等多种功能。
智能体商店:
在腾讯元器平台上,用户可以浏览和选择适合自己需求的智能体,它们覆盖了各种业务场景和功能。
特点:
低代码开发:支持低代码或无代码的开发方式,使没有专业编程技能的用户也能轻松创建和定制智能体。
工作流模式:
通过直观的流程图界面,只需拖放组件设计工作流程,就能实现智能体的逻辑编排。
腾讯生态集成:
与腾讯的生态系统紧密集成,提供了丰富的插件和工具,方便用户利用腾讯的资源和服务。
全域分发支持:
智能体可以一键分发到腾讯的多个平台和渠道,扩大了智能体的应用范围和影响力。
除了上述两个主要的AI代理产品外,腾讯还在不断探索和开发其他类型的AI代理或智能体,以满足不同行业和领域的需求。这些智能体可能涵盖了客服、教育、娱乐、医疗等多种业务场景,能够根据不同行业的特点提供定制化的智能体解决方案。
综上所述,腾讯在AI代理(智能体)领域取得了显著的进展和成果,推出了多个具有创新性和实用性的产品。这些产品不仅提高了工作效率和用户体验,还为AI技术的发展和应用做出了积极的贡献。
1 个月前
根据《Nature》最新发表的研究,非营利研究机构METR发现了一项被称为“智能体摩尔定律”的规律,即AI智能体(Agent)在完成长期任务方面的能力每7个月翻一番。这一发现揭示了AI在任务完成时间跨度上的指数级增长趋势,并提出了“50%-任务完成时间跨度”这一新指标来衡量AI的能力变化。 核心发现 能力翻倍周期:自2019年以来,AI智能体完成任务的时间跨度每7个月翻一番。这意味着,如果2019年AI完成某项任务所需时间对应人类需要10分钟,那么7个月后,这一时间将缩短至20分钟。 加速趋势:2024年,AI能力的增长速度进一步加快,部分最新模型的能力每3个月翻一番。 未来预测:按照这一趋势,预计5年后(即2030年左右),AI将能够完成许多当前需要人类花费一个月时间才能完成的任务。 研究方法 METR团队通过以下步骤验证了这一规律: 任务设计:设计了170个多样化任务,涵盖软件工程、机器学习、网络安全等领域,并测量人类专家完成这些任务所需的时间,建立“人类基准线”。 指标引入:提出了“50%-任务完成时间跨度”指标,即AI在50%成功率下完成任务的时间长度。这一指标对数据分布的微小变化具有鲁棒性。 模型评估:评估了2019年至2025年间发布的13个前沿AI模型(如GPT系列、Sonnet 3.7等),通过逻辑回归分析计算每个模型的时间跨度。 验证与外部实验 为了验证结果的可靠性,研究团队进行了多项外部实验,包括: 回溯预测:使用2023-2025年数据验证趋势一致性。 任务混乱度分析:评估任务复杂性对AI性能的影响,发现AI在复杂任务上的提升速度与简单任务相似。 基准测试:在SWE-bench等数据集上验证了类似的指数增长趋势。 意义与影响 技术进步:这一发现标志着AI在执行长期任务能力上的显著进步,可能推动AI在软件开发、研究等领域的广泛应用。 劳动力市场影响:AI能力的快速提升可能对劳动力市场产生深远影响,未来或替代部分人类工作,尤其是重复性和耗时任务。 社会挑战:研究提醒社会各界需关注AI技术进步带来的就业和经济挑战,并提前制定应对策略。 未来展望 METR团队预测,按照当前趋势,AI可能在2028年11月达到一个月的任务时间跨度,保守估计则在2031年2月实现。尽管研究存在任务局限性和未来不确定性,但团队确信AI能力每年有1~4倍的增长趋势。 这项研究为AI技术的发展提供了新的量化标准,同时也引发了对AI未来应用和影响的深入思考。
1 个月前
阿里推出新夸克,集成AI对话、深度搜索、深度执行等功能,标志着其从搜索引擎向AI Agent的转型。 新夸克接入通义系列模型,用户规模超2亿,DAU达3430万,位居AI应用榜首。
1 个月前
2025 年 3 月 12 日消息,OpenAI 发布 Agent 工具包,推出一组新的 API 和工具以简化 Agent 应用程序开发,包括新的 Responses API、网络搜索、文件搜索、计算机使用工具和 Agents SDK 等,还计划在接下来的几周和几个月内发布其他工具和功能。
1 个月前
判断 Manus 是否是“真正的 AGI”(通用人工智能)问世,还是仅仅一个噱头,需要从多个角度审视:AGI 的定义、Manus 的实际能力、当前 AI 技术边界,以及开发团队的宣传策略。以下是逐步分析: 1. AGI 的定义 通用人工智能(AGI)通常指具备人类级别的通用智能,能够自主学习、推理、解决问题,并在任意领域执行任务,而不仅仅局限于特定任务(即狭义 AI,如 ChatGPT 或图像生成模型)。真正的 AGI 应该: 跨领域能力:无需预先训练即可适应新任务。 自主性:独立制定目标并执行复杂计划。 自我改进:具备自我学习和优化能力。 目前全球公认的 AI 系统(包括 GPT-4、Claude 等)仍属狭义 AI,尽管功能强大,但依赖特定训练数据和预定义目标,距离 AGI 还有差距。 2. Manus 的能力 根据 Monica AI 官方宣传和公开演示,Manus 的核心特点是“自主性”和“任务执行力”。它能完成多步骤、现实世界的任务,例如筛选简历、分析股票、规划旅行等,并在 GAIA 基准测试中表现优异。具体能力包括: 多工具调用:自主搜索网页、生成图表、整合信息。 实时展示:用户可见其工作流程,类似“思维链”(Chain of Thought)。 多模型协同:采用“多签名”系统,可能由多个 AI 模块分工合作。 这些功能确实超越了传统对话型 AI(如 ChatGPT),更接近“代理型 AI”(AI Agent),即能主动执行任务而非仅提供建议。然而,这是否达到 AGI 水平仍需审视: 局限性未知:目前展示的任务虽复杂,但可能是预设场景,未证明其能在完全陌生领域自适应。 依赖性未明:不清楚其是否完全独立,还是仍需人类设计的框架和数据支持。 自我进化:暂无证据显示 Manus 能自我改进或自主学习新技能。 3. 当前 AI 技术边界 截至 2025 年 3 月,AI 技术在“代理”方向上进步显著,例如 OpenAI 的 o1 模型(擅长推理)和 xAI 的工作,但业界共识是 AGI 尚未实现。技术瓶颈包括: 泛化能力:现有模型难以跨领域迁移。 计算资源:AGI 可能需要远超当前的基础设施。 伦理与安全:真正的 AGI 需解决控制和可解释性问题。 Manus 的“多签名”系统和自主性可能是技术创新,但若仅基于现有大模型优化(例如 Claude 3.5 或 DeepSeek),它更可能是“高级狭义 AI”而非 AGI。 4. 宣传策略与噱头可能性 Monica AI 宣称 Manus 是“全球首款真正自主的 AI 代理”,并计划开源部分代码,这显示出自信。但科技领域常有夸大宣传先例: 吸引眼球:称其为 AGI 可能是营销策略,吸引投资和用户。 内测限制:目前仅限邀请码访问,缺乏第三方独立验证。 竞争背景:全球 AI 竞赛激烈,中国团队可能借此树立技术标杆。 然而,创始人肖鸿的履历(华中科技大学背景、Monica AI 的成功)和团队的技术实力表明,Manus 并非空洞炒作,至少是一个有实质进展的项目。 5. 判断 综合来看,Manus 更可能是高级 AI 代理的突破,而非“真正的 AGI”: 证据支持:其展示的能力令人印象深刻,但在跨领域泛化、自我学习等 AGI 核心标准上缺乏明确证明。 技术现实:当前 AI 生态距离 AGI 还有距离,Manus 可能是现有技术的优化组合。 噱头成分:宣传中“全球首款 AGI”的说法有夸张嫌疑,但不排除其在特定任务上接近 AGI 的表现。 结论 Manus 不是“真正的 AGI 问世”,但也不是单纯的噱头。它可能是一个强大的 AI 代理工具,在自主性和实用性上领先于现有产品,代表了中国在 AI 领域的野心和实力。要确认其真实水平,需等待内测开放后的用户反馈、第三方评测,或开源代码的披露。如果你是潜在用户或观察者,建议关注其后续发展,尤其是实际应用中的表现。 (以上评论由Grok3生成)
2 个月前
高盛报告:阿里巴巴领衔AI基建,腾讯主导AI应用领域 2月14日,高盛发布最新研究报告,揭示了中国互联网行业在人工智能(AI)技术快速发展背景下的新格局。报告指出,行业正逐渐分化为两大阵营:AI基础设施建设和AI应用开发。阿里巴巴凭借其强大的云服务基础设施,成为AI基建领域的关键力量;而腾讯则依托其在消费者端(C端)应用的广泛生态和卓越用户体验,成为AI应用领域的核心推动者。 报告详细分析了两家公司的优势:阿里巴巴作为中国最大的云服务提供商,其规模优势在AI基础设施建设中占据重要地位,预计在2026财年将实现14倍的预期市盈率。腾讯则凭借其微信超级应用的潜在AI代理功能和闭环交易能力,在2025财年预期市盈率达到16倍,同时腾讯云在中国公共云市场中也稳居前三。 报告进一步预测,随着中国AI模型的灵活性和计算成本效率的显著提升,超级应用如微信和抖音将继续深化在电子商务和本地服务等交易领域的应用。此外,随着开源模型的兴起和计算成本的降低,AI的采用率将进一步提高,特别是在支持多年云和数据中心需求增长的企业端(B端)场景中。 高盛特别强调,腾讯通过其强大的C端生态和用户体验,将AI技术深度融入日常生活。报告以元宝为例,指出其快速崛起是腾讯在AI应用领域实力的体现。元宝集成了DeepSeek-R1模型的强大推理能力和腾讯云的AI推理基础设施,不仅提供了更智能的交互体验,还通过微信生态的独特内容支持,实现了更精准的信息推送和更高效的任务执行。 报告最后指出,集成R1后的元宝在用户体验上实现了质的飞跃,用户可以通过多轮对话和深度思考模式,快速获取微信公众号、视频号等生态内的丰富内容,进一步巩固了腾讯在AI应用领域的领先地位。
3 个月前
腾讯混元大模型的数学原理主要基于深度学习和自然语言处理领域的相关技术,以下是其核心要点: 神经网络与Transformer架构 多层神经网络:混元大模型采用多层神经网络结构,通过模拟人脑神经元之间的连接来处理和学习数据。每个神经元接收来自上一层神经元的输入,并通过激活函数进行处理后输出到下一层神经元,从而实现对数据的特征提取和模型的训练。 Transformer核心机制:混元大模型基于Transformer架构,其核心是自注意力机制。自注意力机制能够计算文本中每个位置与其他位置之间的关联程度,从而捕捉长距离依赖关系,更好地理解句子中的上下文信息。在计算自注意力时,对于输入序列中的每个位置,会计算其与其他位置的注意力得分,然后根据这些得分对相应位置的特征进行加权求和,得到该位置的新特征表示。除了自注意力机制外,Transformer还包括前馈神经网络,用于对经过自注意力机制处理后的特征进行进一步的非线性变换。 预训练与微调 预训练:在大规模语料库上预先训练模型,使其学习语言的一般规律和知识,如语法、语义、常见的语言模式等。预训练过程通常采用无监督学习的方式,例如使用大量的文本数据进行自监督学习,让模型自动预测文本中的下一个单词或句子中的空缺部分等。通过预训练,模型能够获得丰富的语言知识和语义理解能力,为后续的微调任务奠定基础。 微调:在预训练完成后,根据具体的任务需求,对模型进行微调。微调是在特定的有标注数据集上进行的有监督学习过程,通过调整模型的参数,使其在特定任务上达到更好的性能。例如,在文本分类任务中,使用标注好的文本分类数据集对预训练模型进行微调,让模型学习到如何根据输入文本的特征进行分类。 优化算法与正则化技术 优化算法:在训练过程中,使用优化算法来调整模型的参数,以最小化预测误差。常见的优化算法如随机梯度下降(SGD)及其变种Adagrad、Adadelta、RMSProp、Adam等。这些算法通过计算损失函数对模型参数的梯度,并根据梯度的方向和大小来更新参数,使得模型在训练过程中逐渐收敛到最优解。 正则化技术:为了减少过拟合,提高模型的泛化能力,混元大模型采用了正则化技术,如Dropout和Batch Normalization。Dropout在训练过程中随机丢弃一部分神经元,使得模型在每次训练时都使用不同的子网络结构,从而增加模型的鲁棒性和泛化能力。Batch Normalization则是对每个批次的输入数据进行归一化处理,使得模型在训练过程中输入数据的分布更加稳定,加快训练速度并提高模型的性能。 混合专家模型结构 混元大模型采用混合专家模型结构,每一层包含多个并行的同构专家,一次token的前向计算只会激活部分专家,推理成本远低于同等参数的稠密模型。同时,在路由策略上进行创新,在传统Top-K路由的基础上进一步提出了随机补偿的路由方式,将因为专家满负载原本会扔掉的token,随机路由到其他仍有负载冗余的专家,保障训练稳定性。还设置一个共享专家来捕获所有token所需的共同知识,并通过多个需要路由的专家动态学习特定领域的知识。 处理长文与提升推理效率 长文处理:对于长文领域,通过引入多阶段预训练和退火机制,使得模型仅使用少量长文合成语料,即可获得较好的长文效果,显著提升模型长文外推能力。 推理效率提升:使用Grouped-Query Attention和Cross-Layer Attention两种KV Cache压缩策略,从head/layer两个维度联合压缩KV cache,并引入量化技术,进一步提升压缩比,最终将模型的KV Cache压缩为MHA的5%,大幅提升推理性能。
3 个月前
腾讯两大智能体平台:腾讯元器和 AppAgent。
3 个月前
Anthropic 于2024年12月发布的文章《Building effective agents》详细探讨了如何构建高效的大语言模型(LLM)代理系统。Anthropic 与数十个团队合作构建了跨行业的大语言模型(LLM) agent。最成功的实现往往不是使用复杂框架或专门库,而是采用简单、可组合的模式。本文分享Anthropic 的经验和实用建议: 1. 代理(Agents)的定义与分类 代理的定义: 代理可以被定义为完全自主的系统,能够在较长时间内独立运行,使用各种工具完成复杂任务。 也可以指遵循预定义工作流程的系统,这些系统通过预定义的代码路径协调LLM和工具。 工作流(Workflows)与代理(Agents)的区别: 工作流:通过预定义的代码路径编排LLM和工具,适合任务明确、步骤固定的场景。 代理:LLM动态指导自身的流程和工具使用,保持对任务完成方式的控制,适合需要灵活性和模型驱动决策的场景。 2. 何时使用代理 适用场景: 当任务复杂且需要灵活性和模型驱动的决策时,代理是更好的选择。 代理适合处理开放性问题,尤其是难以预测步骤或无法硬编码固定路径的任务。 不适用场景: 对于任务明确、步骤固定的场景,工作流提供更高的可预测性和一致性。 对于许多应用,优化单个LLM调用(配合检索和上下文示例)通常已足够。 3. 框架的使用建议 常用框架: LangGraph(LangChain)、Amazon Bedrock的AI Agent框架、Rivet(拖放式GUI工具)、Vellum(复杂工作流构建工具)。 使用建议: 开发者应优先直接使用LLM API,许多模式只需几行代码即可实现。 如果使用框架,需理解底层代码,避免因框架的抽象层增加调试难度和复杂性。 4. 构建模块与工作流模式 基础构建模块:增强型LLM 增强型LLM通过检索、工具使用和记忆等功能扩展能力,能够生成搜索查询、选择工具并保留重要信息。 核心工作流模式: 提示链(Prompt chaining):将任务分解为一系列步骤,每个LLM调用处理前一步的输出。适用于可分解为固定子任务的场景,如生成营销文案并翻译。 路由(Routing):对输入分类并引导至专门的后续任务。适用于复杂任务,如客户服务查询的分类处理。 并行化(Parallelization):将任务拆分为并行子任务或多次运行以获得多样化输出。适用于需要多视角或高置信度结果的场景。 编排者-执行者(Orchestrator-workers):中央LLM动态分解任务并分配给执行者LLM。适用于无法预测子任务的复杂场景,如编程任务。 评估者-优化者(Evaluator-optimizer):一个LLM生成响应,另一个提供评估和反馈。适用于需要迭代优化的任务,如文学翻译或复杂搜索。 5. 代理的实现与应用 代理的工作流程: 代理通过用户指令或交互明确任务,独立规划并执行,必要时向用户寻求反馈。 代理在每个步骤中从环境中获取“基准事实”(如工具调用结果)以评估进展。 适用场景: 编码代理:解决SWE-bench任务,根据任务描述编辑多个文件。 计算机使用代理:Claude通过计算机完成任务,如数据处理或信息检索。 6. 核心原则与总结 核心原则: 简单性:从简单设计开始,逐步增加复杂性。 透明性:明确展示代理的规划步骤。 工具设计:通过完善的文档和测试设计代理-计算机接口(ACI)。 总结: 成功的关键在于构建适合需求的系统,而非最复杂的系统。 框架可帮助快速启动,但在生产环境中应减少抽象层,使用基础组件构建。 7. 附录:代理的实际应用 客户支持:结合聊天机器人界面与工具集成,适用于开放式代理场景。 编码代理:在软件开发中,代理通过自动化测试验证代码解决方案,并迭代优化。 这篇文章为开发者提供了构建高效代理系统的实用指南,强调了简单性、透明性和工具设计的重要性,并通过丰富的案例展示了代理系统的实际应用价值。
4 个月前
DeepSeek(深度求索)是一家专注于大语言模型(LLM)和相关技术研发的创新型科技公司,成立于2023年7月,由知名量化私募巨头幻方量化创立。DeepSeek的AI产品主要包括以下几类: 语言模型 DeepSeek-LLM:如包含67亿参数的DeepSeek-67b-base模型,基于海量的中英文token数据集训练,可用于多种自然语言处理任务. DeepSeek-Coder:是代码语言模型,如DeepSeek-Coder-v2-instruct在代码特定任务中性能可比肩GPT-4 Turbo,可辅助编程及代码相关的自然语言处理任务. DeepSeek-Math:旨在提升数学推理能力,例如DeepSeek-Math-7b-instruct等模型,可解决数学问题、进行数学相关的文本生成和问答等. DeepSeek-Prover: 主要用于定理证明,通过优化训练和推理过程,为相关领域的研究和应用提供支持. 多模态模型 DeepSeek-VL:是开源的视觉-语言模型,可用于真实世界的视觉和语言理解应用,如视觉问答、图像字幕生成等. 应用平台 乾坤圈(AI Agent智能体平台):基于深擎自研的流程引擎研发,能够基于海量的大模型组件进行极速灵活编排,满足大模型场景快速搭建能力需求,内置了20多个工作流最佳实践、50多项金融领域的特色处理组件以及30多款应用场景,主要应用于金融行业. Janus:是统一的多模态理解和生成模型,可应用于多种需要多模态交互的场景. 内容产品与服务 个性化推荐引擎:如穿云箭,依托智能算法模型,基于用户的浏览行为,实现精准的内容推荐,帮助金融机构了解客户需求. 内容服务平台:如风火轮,整合各大财经资讯和自媒体内容,通过SaaS模式分发给客户,让信息获取及时可靠;白羽扇智能内容处理中心则进一步提高了内容分发的个性化和实时性,对投资标的、财经事件进行动态打标,优化客户体验.
4 个月前
通过与企业系统、API 和数据来源无缝连接,使生成式人工智能应用程序能够自动执行多步任务。