
2025年4月10日,斯坦福大学人工智能研究所发布的《2025年人工智能指数报告》显示,中美顶级AI大模型性能差距出现显著变化。具体情况如下:
美国在生产顶级人工智能模型方面仍然领先,但中国正在缩小性能差距。2024年,美国的机构产生了40个值得注意的人工智能模型,而中国只有15个,欧洲只有3个。虽然美国在数量上保持领先地位,但中国车型已经迅速缩小了质量差距。中美顶级AI大模型性能差距从2023年的17.5%急剧缩小至0.3%,几乎实现了性能上的“零差距”。这意味着中国在AI大模型领域的发展迅速,与美国的差距正在快速拉近。
在2024年重要大模型评估中,美国有40个模型入选,中国有15个。其中,谷歌与OpenAI均以7个模型入选并列榜首,阿里巴巴凭借6个入选模型,在模型贡献度上位列全球第三,是唯一杀入前三的中国企业。
在由业内顶级专家评选出的“2024年AI领域重要发布”榜单中,阿里巴巴的Qwen2、Qwen2.5以及DeepSeek - V3三款产品位列其中。此外,通义千问在全世界的衍生模型数突破10万,超越美国的Llama模型,成为全球范围内最受欢迎的开源大模型之一。自2023年以来,阿里巴巴通义实验室已累计开源超过200款AI模型,展现出强大的开源生态建设能力。
该报告由李飞飞等著名AI科学家组成的专家组进行调查研究,对人工智能技术进步、经济影响和社会影响提供了严谨客观的分析,是业界公认的AI领域最客观的权威报告之一。报告中对中美顶级AI大模型性能差距的分析以及对中国模型的认可,充分体现了中国在AI领域,尤其是大模型方面的卓越进步和强大实力。

1 年前
阿西洛马人工智能原则(Asilomar AI Principles)是一套旨在确保人工智能(AI)技术安全、伦理和有益发展的指导原则。该原则于2017年1月在美国加利福尼亚州阿西洛马举行的“Beneficial AI”会议上提出,由“生命未来研究所”(Future of Life Institute)牵头制定,得到了包括斯蒂芬·霍金、埃隆·马斯克等在内的众多AI领域专家和学者的支持。 原则概述 阿西洛马人工智能原则共包含23条,分为三大类:科研问题、伦理和价值、更长期的问题。以下是各类别的核心内容: 1. 科研问题(Research Issues) 研究目标:AI研究应致力于创造有益于人类的智能,而非不受控制的智能。 研究经费:AI投资应部分用于研究如何确保其有益使用,包括计算机科学、经济学、法律、伦理等领域的问题。 科学与政策的联系:AI研究者与政策制定者之间应保持建设性交流。 科研文化:应培养合作、信任与透明的科研文化,避免因竞争而降低安全标准。 2. 伦理和价值(Ethics and Values) 安全性:AI系统应在整个生命周期内保持安全可靠,并在可行的情况下接受验证。 故障透明性:若AI系统造成损害,应能确定其原因。 责任:AI设计者和建造者应对其使用、误用及行为产生的道德影响负责。 价值归属:高度自主的AI系统应确保其目标与人类价值观一致。 个人隐私:人们应有权访问、管理和控制其生成的数据。 共同繁荣:AI创造的经济繁荣应惠及全人类。 3. 更长期的问题(Longer-term Issues) 能力警惕:应避免对未来AI能力上限的过高假设。 风险:AI系统可能带来的灾难性或存亡风险,需有针对性地减轻。 递归的自我提升:能够自我升级或复制的AI系统需受严格的安全控制。 公共利益:超级智能的开发应服务于广泛认可的伦理观念,而非单一国家或组织的利益。 原则的意义与影响 阿西洛马人工智能原则旨在为AI技术的发展提供伦理框架,确保其符合人类利益并避免潜在风险。这些原则不仅得到了学术界的广泛支持,也在政策制定和行业实践中产生了深远影响。 争议与挑战 尽管原则提出了明确的指导方向,但在实际应用中仍面临诸多挑战。例如,如何确保AI系统的价值归属与人类价值观一致,以及如何在全球范围内协调AI技术的监管等问题。 总结 阿西洛马人工智能原则为AI技术的发展提供了重要的伦理和安全指导,但其成功实施仍需全球范围内的合作与努力。如需了解更多细节,可参考相关文献或访问生命未来研究所的官方网站。

1 年前
7月17日“牛津数学公开讲座”系列研讨会邀请陶哲轩演讲主题关于AI在科学和数学领域的潜力。 陶哲轩认为AI是“猜测机器”,本质是在解巨大方程组;AI虽不是魔法但类似飞机发明,从初始发展到真正发挥作用需要很多工作;科学领域可以利用AI这个“大消防水管”(强大输出能力)结合验证过滤掉杂质,如药物设计领域可减少试验候选对象,材料科学领域或可跳过昂贵合成过程缩小候选范围;气候模拟领域也能利用AI大大缩短模拟时间。 陶哲轩将 AI 描述为“猜测机器”,这一观点颇具启发性。 他的这一表述可能意味着,AI 基于大量的数据和算法进行运算和预测,从而给出各种可能的结果和解决方案,就如同在进行各种猜测。但这种“猜测”并非是毫无根据的盲目行为,而是建立在对海量数据的学习和分析基础之上。 例如,在图像识别中,AI 会根据已有的图像特征和模式,猜测输入的新图像属于何种类别;在自然语言处理中,AI 会根据语言的语法、语义和上下文,猜测下一个可能出现的单词或句子。 这一观点也提醒我们,虽然 AI 能够提供有价值的推测和建议,但这些结果并非绝对准确和可靠,仍需要人类的进一步验证和判断。您是对陶哲轩的这一观点感兴趣,还是希望了解更多关于他在 AI 领域的其他见解呢?

1 年前
粤港澳大湾区数字经济研究院

1 年前
粤港澳大湾区数字经济研究院(idea )在人工智能和数字经济领域有多项前沿研究成果。

1 年前
北京智源人工智能研究院(BAAI)是在科技部和北京市委市政府的指导和支持下,由北京市科委和海淀区政府推动成立,依托北京大学、清华大学、中国科学院、百度、小米、字节跳动、美团点评、旷视科技等北京人工智能领域优势单位共建的新型研究机构。于 2018 年 11 月 14 日揭牌成立。 智源创新中心 智源研究院加快 AI 前沿技术落地,围绕类脑脉冲芯片、认知知识图谱...

1 天前
OpenClaw 本质是“开发者基础设施”,而非面向大众的 SaaS 产品。

21 天前
用 OpenClaw 搭建一个本地 Agent 中枢(完整方案) 不是再做一个 ChatGPT,而是建立一个真正“可控、可组合、可扩展”的本地 AI Agent 中枢。 当越来越多团队开始意识到: 云端 LLM 成本不可控 数据隐私存在风险 单一 Agent 无法解决真实业务 “本地 Agent 中枢” 正在成为一个更现实的选择。 本文将完整讲清楚: 👉 如何用 OpenClaw 搭建一个真正可用的本地 Agent 中枢 👉 它适合谁,不适合谁 👉 与 LangGraph / CrewAI 的核心差异 什么是「本地 Agent 中枢」? 先明确一个概念,避免误解。 ❌ 不是: 一个本地 ChatGPT 一个简单的 Prompt 管理器 ✅ 而是: 一个能够统一管理多个 Agent、模型、工具和任务流程的本地系统 一个合格的本地 Agent 中枢,至少要解决 5 件事: 多 Agent 协作(不是单轮对话) 任务调度与状态管理 模型可替换(本地 / API) 工具调用(搜索、代码、文件等) 可长期运行、可追溯 OpenClaw 的定位,正是这个“中枢层”。 为什么选择 OpenClaw? 在进入部署前,必须先回答一个现实问题: 为什么不是 LangGraph / CrewAI / AutoGen? 简要结论(非常重要) 框架 更适合 LangGraph 开发者写 Agent 流程 CrewAI 小规模角色协作 AutoGen 对话驱动实验 OpenClaw 长期运行的 Agent 中枢 OpenClaw 的核心优势 1️⃣ 架构清晰,不是“脚本拼装” 有明确的 Agent 管理层 有任务执行与状态机制 不是写完一次就丢的 Demo 2️⃣ 原生支持多模型策略 本地模型 云 API fallback / 优先级策略 3️⃣ 更接近“生产环境思维” 可持续运行 可复用 Agent 可演进 如果你的目标是: “做一个长期使用的 AI 中枢,而不是一段实验代码” 那 OpenClaw 是目前更合理的选择之一。 整体架构:OpenClaw 本地 Agent 中枢怎么搭? 这是一个最小可用但可扩展的架构方案。 🧩 架构拆解 ┌─────────────────────────┐ │ 用户 / 系统 │ └──────────┬──────────────┘ │ ┌──────────▼──────────┐ │ OpenClaw 中枢层 │ │ - Agent Registry │ │ - Task Orchestrator│ │ - Memory / State │ └──────────┬──────────┘ │ ┌─────────▼─────────┐ │ Agent 集群 │ │ - Research Agent │ │ - Coding Agent │ │ - Planning Agent │ │ - Tool Agent │ └─────────┬─────────┘ │ ┌─────────▼─────────┐ │ 模型 & 工具层 │ │ - 本地 LLM │ │ - API LLM │ │ - Search / FS / DB │ └───────────────────┘ 部署准备(实战级) 1️⃣ 基础环境 推荐环境(已验证): Linux / WSL / macOS Docker + Docker Compose Python 3.10+ 2️⃣ 模型选择建议(非常现实) 场景 推荐 本地推理 Qwen / LLaMA 稳定输出 GPT / Claude API 混合方案 本地 + API fallback 👉 关键不是模型多,而是“可切换” 核心步骤:搭建 OpenClaw 本地 Agent 中枢 Step 1:部署 OpenClaw 核心 git clone https://github.com/xxx/openclaw cd openclaw docker compose up -d 启动后,你将拥有: Agent 管理入口 任务调度服务 统一配置中心 Step 2:定义你的第一个 Agent 一个 Agent ≠ 一个 Prompt 而是一个职责明确的“角色” 示例: agent: name: research_agent role: 信息调研 model: local_llm tools: - web_search - file_reader 建议起步 Agent: Research Agent(信息收集) Planner Agent(任务拆解) Executor Agent(执行) Step 3:建立 Agent 协作流程 例如一个典型任务: “调研某行业 → 输出分析 → 给出建议” 流程是: Planner 拆解任务 Research Agent 收集信息 Executor Agent 输出结果 中枢保存状态与结果 👉 这一步,才是“中枢”的价值所在 一个真实可用的示例场景 🎯 场景:AI 工具评估中枢 你可以搭一个 Agent 中枢来做: 自动收集 AI 工具信息 对比功能 / 定价 输出结构化报告 长期更新 这类系统: 人工成本极高 用 Agent 非常合适 总结:什么时候该用 OpenClaw? 当你意识到:AI 不再是“一次性回答”,而是“持续协作的系统” 那你就已经走在 OpenClaw 这条路上了。 OpenClaw 不是让你“更快用 AI”,而是让你“真正拥有 AI 能力”。

24 天前
Asking User Question Tool(AI智能体版) 这是AI智能体必备的交互式工具,让Agent在执行任务时主动向用户提问、澄清需求、收集信息,避免瞎猜、减少返工、提升准确率。 一、核心定位 本质:Agent的“人在回路”交互接口,让AI在模糊/信息不足时暂停执行,向用户要明确输入。 作用:把“模糊指令→AI瞎做→反复修改”变成“AI提问→用户明确→一次做对”。 常见名称: AskUserQuestion 、 AskUserQuestionTool 、 ask_user_question 。 二、核心工作流(极简) 1. Agent判断信息不足:发现需求模糊、缺少参数、需要决策 2. 调用工具生成结构化问题:单选/多选+自定义输入+说明 3. 用户作答:在聊天/弹窗/终端选择或输入 4. Agent接收答案:解析结构化结果,补全上下文 5. 继续执行任务:基于完整信息推进,不再猜 三、关键能力(标配) 结构化提问:标题+问题+2–4个选项+单选/多选+ Other 自定义输入 上下文澄清:自动追问,直到需求完全明确 结构化返回:输出JSON,方便前端渲染(按钮/表单/弹窗) 人在回路:强制用户确认,避免AI自主决策风险 多轮交互:可连续提问,形成“需求访谈”流程 四、主流实现(你会遇到的版本) Claude Code(Anthropic) 原生内置,最成熟 支持多轮、单选/多选、自定义输入 常用于代码生成、需求梳理 Qwen-Agent(通义千问) 开源工具: qwen_agent/tools/ask_user_question.py 支持参数: question / options / explanations / multiSelect / allowFreeform Spring AI AskUserQuestionTool ,Java生态 模型无关,可对接GPT/Claude/Gemini OpenClaw / EasyClaw 集成到本地智能体,用于任务执行前确认 本地运行,隐私优先 五、典型使用场景(高频) 需求澄清:“做一个登录页”→AI问:技术栈?风格?是否第三方登录? 偏好收集:“写报告”→AI问:正式/ casual?长度?受众? 决策点确认:“部署服务”→AI问:云厂商?实例规格?环境? 复杂任务拆解:多轮提问,把模糊需求变成可执行步骤 六、与普通聊天的区别 普通聊天:用户主动说,AI被动答;信息靠用户自己补全 AskUserQuestion:AI主动问、结构化问、按任务节点问;用户只需点选/填空,效率高、歧义少 七、为什么要用(价值) 减少返工:一次做对,节省时间与Token 提升准确率:AI不瞎猜,结果更贴合需求 降低门槛:用户不用写长Prompt,点选即可 安全可控:关键决策必须用户确认,避免误操作 八、一句话总结 Asking User Question Tool = AI智能体的“需求访谈官”,让Agent从“猜着做”变成“问清楚再做”,是构建可靠、实用AI助手的核心工具。
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI