能源焦虑似乎是一个永恒的话题,从蒸汽机到内燃机,从煤炭到石油,世界的发展总是围绕着能源打转,到了AI时代,这一点也未曾改变。
OpenAI CEO Sam Altman在多个场合提到,未来的人工智能需要能源方面的突破,因为AI消耗的电力将远远超过人们的预期。马斯克也曾预言,未来两年内将由“缺硅”变为“缺电”。
数据显示,ChatGPT每天要响应大约2亿个请求,这个过程会消耗超过50万度电力。预计到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力,约等于北京市2023年全年的耗电总量(135.78太瓦时)。
巨大的能源消耗主要产生在两个方面,其一是驱动AI服务器计算、存储消耗的能源,其二则是为AI服务器降温消耗的能源,这里面前者占60%,后者占40%。
不过,虽然前者占比更高,但由于AI的发展对算力的需求越来越大,所以即便AI芯片的能效一直在提高,但还是无法改变整体功耗持续上涨的趋势。因此,如何降低服务器冷却时消耗的能源,就成为了降低AI运营成本、减少能源消耗的关键。
而为此,大到Google、微软这样的科技巨头,小到服务器研发供应商,尖端前沿如SpaceX也都在为此绞尽脑汁。
进阶的服务器 从风冷到液冷
虽然大模型的风是从2023年才刮起来的,但服务器冷却并不是什么新课题。
1945年,世界上第一台通用计算机ENIAC诞生。为了解决ENIAC耗电量巨大且发热高的问题,当时的工程师就采用了风扇来为ENIAC降温,这差不多是最早的服务器制冷技术。
但风扇制冷的效果毕竟有限,而当时的计算机又都是大块头,且耗电量巨大。比如ENIAC重量大约在30吨左右,占地面积170平方米,功耗达到每小时150~174千瓦。
面对这样的庞然大物,仅靠风扇的制冷就有些力不从心了。所以到1951年,当美国雷明顿兰德公司推出第一款商用计算机UNIVAC I时,就已经用上了空调制冷。
空调最早发明在1902年,最初是为了给印刷厂保持恒温,后来陆续走入家庭,大约1920年的时候就已经在美国被广泛使用了。所以在1951年UNIVAC I面世时,空调系统已经异常成熟,当时雷明顿兰德公司就专门为UNIVAC I设计了一套中央空调制冷系统。
![]()
▲图:维基百科,1951年美国人口普查局的UNIVAC I
从此之后,空调制冷就逐渐成为大型计算机,以及后来的服务器机房最主要的制冷方式,并持续了将近一百年的时间,直到后来液冷技术登上舞台。
和空调制冷一样,液冷技术最早也不是应用在服务器场景的,而是应用在机械加工、电力变压器,或者航空航天等领域。其在服务器领域的应用,也不过是最近二十多年的事情。
这是因为全球互联网的浪潮一直到1994年前后才出现第一次爆发。从这之后,互联网公司为了提供高效的服务,大规模存储数据,才开始大规模建设和使用数据中心。
也因此,由于大量计算需求带来的芯片功耗提高,服务器密度增加等原因,传统的空调制冷设备就显得有些力有不逮,并开始限制芯片性能的提高。
苹果、惠普和戴尔供应商Liteon的副总裁Simon Ong表示:“我们发现采用风冷方式的芯片只能达到其性能的60%,并且会存在一定的过热问题,而液冷解决方案可以继续将计算性能提升至最优化。”
3月1日,在斯坦福大学举行的2024年SIEPR经济峰会上,黄仁勋表示,英伟达的下一代DGX AI服务器将采用液冷技术。
根据艾邦储能网统计,单个DGX H100系统消耗的功率大约为10kW,液冷可提高整体能效20-40%,1万个DGX系统能节省20-40兆瓦的功耗,按0.10美元/千瓦时计算,相当于每年节约2000-4000万美元能源成本。
![]()
▲图:Nvidia,DGX AI服务器
液冷除了有更高的散热效率和更低的能耗水平,与风冷相比,它还能减少服务器的占地面积,即同样大小的机房,能够放下更多的服务器。种种优势让液冷技术逐步替代风冷,成为数据中心的主要冷却方式。
谷歌应该是全球范围内最早探索使用液冷技术的互联网科技企业之一。
2006年,谷歌前CEO埃里克·施密特在搜索引擎大会(SES San Jose 2006)上首次提出“云计算”(Cloud Computing)的概念,同时谷歌的数据中心也开始快速增长。
2009年,华尔街日报报道了谷歌开始探索液冷技术在数据中心的应用,以达到提高数据中心能源利用效率的目的。当时谷歌就表示液冷技术可以将数据中心的能耗降低40%。
也是这一年,惠普推出了一款名为ProLiant DL380 Gen8服务器,采用全新的液冷技术,可以将功耗降低40%。两年之后,IBM也推出了一款使用液冷技术的服务器,名为System x3550 M5,可以将功耗降低45%。
此后,微软、亚马逊、Facebook(现Meta)也开始纷纷跟进,并先后在2019年~2022年左右,将所有的数据中心的制冷方式都转换成液冷模式。
当然,液冷技术也分为很多类别,按照冷却液进入电子设备的方式不同,大致可分为芯片级液冷,浸没式液冷、喷淋式液冷、冷板式液冷等等。
比如芯片级液冷,就是将冷却液直接输送到芯片顶部,以吸收芯片产生的热量。这种形式降温彻底,但结构复杂、成本较高。浸没式液冷则是将整个电子设备浸泡在冷却液中,这种形式冷却均匀,但体积庞大,维护不便。
喷淋式液冷是将冷却液喷洒在电子设备上,虽然冷却效果差一些,但胜在结构简单,成本较低。冷板式液冷则是通过由铜管、铝板等高导热材料制成的冷板来降温,工作原理有些类似北方的暖气片,差别只是一个增温,一个降温。
目前,市面上使用最广泛的就是冷板式液冷。按照Gartner的数据,2023年全球数据中心液冷市场中,冷板式液冷技术的市场份额约为60%。
但最近两年,喷淋式液冷和浸没式液冷的市场份额也有所增加。Gartner的数据提到,2024年全球数据中心液冷市场中,喷淋式液冷技术和浸没式液冷技术的市场份额将分别达到约25%和约15%。
喷淋式液冷市场份额的增加,主要是因为它结构简单,也更易于安装和维护,是所有液冷技术中成本最低的一项。
联想在其2023年发布的《喷淋式液冷服务器白皮书》中提到,“喷淋式液冷技术具有良好的扩展性和灵活性,可以满足不同类型数据中心的需求。”这符合目前数字化转型过程中,越来越多企业建设私有云和自己的小数据中心的需求。
而与喷淋式液冷因为成本被选择不同,浸没式液冷市场份额增长的主要原因是效率。
因为随着人工智能,特别是大模型的发展,市场对数据中心的能源效率和服务器性能有了更高的要求,而最近两年,由于技术的成熟也导致沉浸式液冷的成本逐渐下降,进入更多企业可接受的范围。
整体上,液冷技术已经成为目前市场上最主要的服务器冷却方式。
上山下海的数据中心
虽然液冷技术对降低数据中心的能耗起到了巨大的作用,但对于高速增长的算力以及其带来的巨大能耗来说,仅靠传统的液冷方式还远远不够。
更何况液冷技术还存在一些问题,比如巨大的耗水量。
谷歌在其官网公布,2021年,谷歌数据中心平均每天消耗约45万加仑水。这大约相当于灌溉17英亩草坪一次的水量,或者种植用于生产160条牛仔裤的棉花的水量。
同年,谷歌全球数据中心机队消耗了约43亿加仑的水,相当于美国西南部每年灌溉和维护29个高尔夫球场所需的水量。
![]()
▲图:谷歌
除此之外,随着全球ESG的理念越来越成为评判企业的重要标准,减碳甚至无碳成为了数据中心运行的重要标准。
为了解决这些问题,谷歌从很早就开始脑洞大开。2009年,谷歌在芬兰从一家造纸公司手里买下了一家造纸厂,开始着手将其改造成数据中心。
选择芬兰,一个原因是纬度高,自然环境温度低;另一个原因是这家造纸厂位于芬兰南部海岸,谷歌打算引导海水来为数据中心降温。
目前,这个项目的一期工程已经在2011年9月完工,谷歌初期投入了2亿欧元,但到目前为止,总投入已超过20亿欧元。谷歌的目标是在2030年以前让所有数据中心和园区全天候完全采用无碳能源来运营业务。
同样选择借助自然环境降温的还有Facebook,其2011年宣布在瑞典北部的一座名叫吕勒奥的城市建设数据中心。
选择这个地方的原因,其一是因为这是一座工业城市,电价便宜。其二则是因为这里纬度高。吕勒奥距离北极圈仅有110公里左右,每年十月份就开始飘雪,冬季平均气温大约在零下6°C至零下13.6°C,即使在夏天,平均温度也只有12°C - 20°C。
这个项目在2011年开始建设,巨大的风机将外部冷空气引入机房内,为成千上万台服务器物理降温。按照扎克伯格的说法,他们吕勒奥数据中心的工作效率比传统数据中心高10%,能耗却低40%。
与谷歌和Facebook在地面上想办法不同,艺高人胆大的微软则直接选择将数据中心扔进了海里。
微软认为,世界上一半以上的人口居住在距海岸约120英里的范围内。将数据中心放置在沿海城市附近的水域中,数据可以短距离传输到沿海社区。
2015年,微软一个名叫Natick的项目正式启动;2018年,该项目团队通过一个压力容器,将装有864台服务器的12个服务器机架沉入苏格兰海岸附近的海床。两年之后,他们将这个巨大圆柱体捞出,验证了项目的成功。
![]()
▲图:微软
目前,这项技术在国内也同样得到了应用。
2022年12月,海南海底数据中心成功将装有近300台服务器的“海底数据舱”放入海底并开始向外输出数据,成为全球首个商业用的海底数据中心。
该项目总经理蒲定在接受环球时报的采访时提到,“以陆地1万个机柜为例,同等算力的海底数据中心,每年能节省用电总量1.75亿千瓦时、节省建设用地面积9.84万平方米、节省淡水15万吨。”
有企业将服务器放在海里,自然也有企业将服务器放在山里。
比如2017年,富士康的数据中心就落户在贵安新区的山洞里。设计人员将山底部的两头打通形成隧道,让空气对流,使山体内部温度低于外部的自然条件,成为机房服务器的天然 “空调房”。
贵州位于北纬26度左右,四季温度均衡,再加上天然的喀斯特地貌,让山体成为服务器的天然容器。
2021年,我国提出“东数西算”战略,贵州也因此成为我国西部最重要的数据中心之一。包括苹果、华为等众多头部企业都在贵州的大山里建立了自己的数据中心。
结语
如果说,谷歌、Meta等知名大公司之间的AI竞争,是人和人之间的技术竞赛,那么,AI对提升能源效率的迫切,本质上是对人与自然资源之间关系进行重新解构。
能量是守恒的,人类在获取一种更先进的生产力、试图无限扩大它的能力上限的同时,也必须去思考可能付出的代价是否超出了自己的极限,以寻找最优解来更科学地配置资源。
Open AI点燃了新一代AI争夺赛,将AI“吃电”量推向新的高峰,原先“看不见”的能源之战,也被摆在了明面。
虽然各家公司“上山下海”地寻求解决之道,但也可能面临一些争议和技术挑战,比如服务器放置在深海可能会影响海洋生态,而偏远地区的数据中心可能会涉及复杂的物流和维护问题。
这就像打开了“俄罗斯套娃”,每解决一个问题,会发现背后总是出现新的问题。
凡事皆有代价,当资源稀缺的时候,也是考验人类智慧的时候,或许,新的能源解决方案就在前方,只有人类开启“迫切”的阀门,才会更近距离地获取新的方案。
文章来源:钛媒体APP/网易号

1 年前
阿联酋宣布计划投资300亿至500亿欧元,在法国开发一个大型人工智能数据中心,其数据中心的计算能力预计高达1千兆瓦。 该项目是法国和阿联酋政府间的合作,作为两国人工智能合作协议的一部分,法国总统马克龙和参加巴黎人工智能峰会阿联酋总统出席了签字仪式。 据称,法国和阿联酋冠军财团将建设一个专门用于人工智能的园区,使其成为欧洲最大的人工智能园区,第一阶段的投资尚不明确,或将在2025年5月宣布。 此项合作是阿法双方在巴黎人工智能行动峰会上宣布的。

1 年前
华为的FusionPower业务单元主要关注的是智能电力解决方案,对于FusionPower这样的智能电力解决方案,虽然其核心不是人工智能,但很可能采用了华为的其他产品和服务中的AI技术。

1 年前
百度智能云千帆大模型平台服务南方电网人工智能应用场景,实现AI电力技术创新。

1 天前
OpenClaw 本质是“开发者基础设施”,而非面向大众的 SaaS 产品。

21 天前
用 OpenClaw 搭建一个本地 Agent 中枢(完整方案) 不是再做一个 ChatGPT,而是建立一个真正“可控、可组合、可扩展”的本地 AI Agent 中枢。 当越来越多团队开始意识到: 云端 LLM 成本不可控 数据隐私存在风险 单一 Agent 无法解决真实业务 “本地 Agent 中枢” 正在成为一个更现实的选择。 本文将完整讲清楚: 👉 如何用 OpenClaw 搭建一个真正可用的本地 Agent 中枢 👉 它适合谁,不适合谁 👉 与 LangGraph / CrewAI 的核心差异 什么是「本地 Agent 中枢」? 先明确一个概念,避免误解。 ❌ 不是: 一个本地 ChatGPT 一个简单的 Prompt 管理器 ✅ 而是: 一个能够统一管理多个 Agent、模型、工具和任务流程的本地系统 一个合格的本地 Agent 中枢,至少要解决 5 件事: 多 Agent 协作(不是单轮对话) 任务调度与状态管理 模型可替换(本地 / API) 工具调用(搜索、代码、文件等) 可长期运行、可追溯 OpenClaw 的定位,正是这个“中枢层”。 为什么选择 OpenClaw? 在进入部署前,必须先回答一个现实问题: 为什么不是 LangGraph / CrewAI / AutoGen? 简要结论(非常重要) 框架 更适合 LangGraph 开发者写 Agent 流程 CrewAI 小规模角色协作 AutoGen 对话驱动实验 OpenClaw 长期运行的 Agent 中枢 OpenClaw 的核心优势 1️⃣ 架构清晰,不是“脚本拼装” 有明确的 Agent 管理层 有任务执行与状态机制 不是写完一次就丢的 Demo 2️⃣ 原生支持多模型策略 本地模型 云 API fallback / 优先级策略 3️⃣ 更接近“生产环境思维” 可持续运行 可复用 Agent 可演进 如果你的目标是: “做一个长期使用的 AI 中枢,而不是一段实验代码” 那 OpenClaw 是目前更合理的选择之一。 整体架构:OpenClaw 本地 Agent 中枢怎么搭? 这是一个最小可用但可扩展的架构方案。 🧩 架构拆解 ┌─────────────────────────┐ │ 用户 / 系统 │ └──────────┬──────────────┘ │ ┌──────────▼──────────┐ │ OpenClaw 中枢层 │ │ - Agent Registry │ │ - Task Orchestrator│ │ - Memory / State │ └──────────┬──────────┘ │ ┌─────────▼─────────┐ │ Agent 集群 │ │ - Research Agent │ │ - Coding Agent │ │ - Planning Agent │ │ - Tool Agent │ └─────────┬─────────┘ │ ┌─────────▼─────────┐ │ 模型 & 工具层 │ │ - 本地 LLM │ │ - API LLM │ │ - Search / FS / DB │ └───────────────────┘ 部署准备(实战级) 1️⃣ 基础环境 推荐环境(已验证): Linux / WSL / macOS Docker + Docker Compose Python 3.10+ 2️⃣ 模型选择建议(非常现实) 场景 推荐 本地推理 Qwen / LLaMA 稳定输出 GPT / Claude API 混合方案 本地 + API fallback 👉 关键不是模型多,而是“可切换” 核心步骤:搭建 OpenClaw 本地 Agent 中枢 Step 1:部署 OpenClaw 核心 git clone https://github.com/xxx/openclaw cd openclaw docker compose up -d 启动后,你将拥有: Agent 管理入口 任务调度服务 统一配置中心 Step 2:定义你的第一个 Agent 一个 Agent ≠ 一个 Prompt 而是一个职责明确的“角色” 示例: agent: name: research_agent role: 信息调研 model: local_llm tools: - web_search - file_reader 建议起步 Agent: Research Agent(信息收集) Planner Agent(任务拆解) Executor Agent(执行) Step 3:建立 Agent 协作流程 例如一个典型任务: “调研某行业 → 输出分析 → 给出建议” 流程是: Planner 拆解任务 Research Agent 收集信息 Executor Agent 输出结果 中枢保存状态与结果 👉 这一步,才是“中枢”的价值所在 一个真实可用的示例场景 🎯 场景:AI 工具评估中枢 你可以搭一个 Agent 中枢来做: 自动收集 AI 工具信息 对比功能 / 定价 输出结构化报告 长期更新 这类系统: 人工成本极高 用 Agent 非常合适 总结:什么时候该用 OpenClaw? 当你意识到:AI 不再是“一次性回答”,而是“持续协作的系统” 那你就已经走在 OpenClaw 这条路上了。 OpenClaw 不是让你“更快用 AI”,而是让你“真正拥有 AI 能力”。

24 天前
Asking User Question Tool(AI智能体版) 这是AI智能体必备的交互式工具,让Agent在执行任务时主动向用户提问、澄清需求、收集信息,避免瞎猜、减少返工、提升准确率。 一、核心定位 本质:Agent的“人在回路”交互接口,让AI在模糊/信息不足时暂停执行,向用户要明确输入。 作用:把“模糊指令→AI瞎做→反复修改”变成“AI提问→用户明确→一次做对”。 常见名称: AskUserQuestion 、 AskUserQuestionTool 、 ask_user_question 。 二、核心工作流(极简) 1. Agent判断信息不足:发现需求模糊、缺少参数、需要决策 2. 调用工具生成结构化问题:单选/多选+自定义输入+说明 3. 用户作答:在聊天/弹窗/终端选择或输入 4. Agent接收答案:解析结构化结果,补全上下文 5. 继续执行任务:基于完整信息推进,不再猜 三、关键能力(标配) 结构化提问:标题+问题+2–4个选项+单选/多选+ Other 自定义输入 上下文澄清:自动追问,直到需求完全明确 结构化返回:输出JSON,方便前端渲染(按钮/表单/弹窗) 人在回路:强制用户确认,避免AI自主决策风险 多轮交互:可连续提问,形成“需求访谈”流程 四、主流实现(你会遇到的版本) Claude Code(Anthropic) 原生内置,最成熟 支持多轮、单选/多选、自定义输入 常用于代码生成、需求梳理 Qwen-Agent(通义千问) 开源工具: qwen_agent/tools/ask_user_question.py 支持参数: question / options / explanations / multiSelect / allowFreeform Spring AI AskUserQuestionTool ,Java生态 模型无关,可对接GPT/Claude/Gemini OpenClaw / EasyClaw 集成到本地智能体,用于任务执行前确认 本地运行,隐私优先 五、典型使用场景(高频) 需求澄清:“做一个登录页”→AI问:技术栈?风格?是否第三方登录? 偏好收集:“写报告”→AI问:正式/ casual?长度?受众? 决策点确认:“部署服务”→AI问:云厂商?实例规格?环境? 复杂任务拆解:多轮提问,把模糊需求变成可执行步骤 六、与普通聊天的区别 普通聊天:用户主动说,AI被动答;信息靠用户自己补全 AskUserQuestion:AI主动问、结构化问、按任务节点问;用户只需点选/填空,效率高、歧义少 七、为什么要用(价值) 减少返工:一次做对,节省时间与Token 提升准确率:AI不瞎猜,结果更贴合需求 降低门槛:用户不用写长Prompt,点选即可 安全可控:关键决策必须用户确认,避免误操作 八、一句话总结 Asking User Question Tool = AI智能体的“需求访谈官”,让Agent从“猜着做”变成“问清楚再做”,是构建可靠、实用AI助手的核心工具。

27 天前
部署本地 OpenClaw 主要有两种主流且资料详尽的方式,你可以根据自己的技术背景和需求来选择。 我把这两种方式的流程整理成了一个概览表格,方便你快速对比和决策: 特性 方案一:Docker 部署(推荐新手) 方案二:Node.js 源码部署(适合开发者) 核心依赖 Docker, Docker Compose, Git Node.js (≥22), npm, Git 优点 环境隔离,部署和卸载干净,失败率低,适合快速体验 配置灵活,方便二次开发和调试,可直接运行最新源码 缺点 需要了解基本的 Docker 命令 对系统环境要求较高,可能遇到依赖冲突 适用人群 希望快速、稳定运行OpenClaw的用户 开发者、希望修改源码或深度定制OpenClaw的用户 方案一:使用 Docker 部署(推荐) 这种方法将 OpenClaw 运行在容器中,与你的系统环境隔离,最为稳妥。 第1步:准备工作与环境检查 在开始之前,请确保你的电脑满足最低要求:CPU ≥ 2核,内存 ≥ 4GB,磁盘空间 ≥ 20GB 。 第2步:安装通用依赖 你需要安装 Docker、Git 等工具。以下是 Linux (Ubuntu/Debian) 的示例命令,Windows 用户请手动下载安装 Docker Desktop 和 Git 。 # 1. 安装 Docker (使用阿里云镜像加速) curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun # 2. 启动 Docker 并设置开机自启 sudo systemctl start docker sudo systemctl enable docker # 3. 验证 Docker 安装 docker --version && docker compose version # 4. 安装 Git sudo apt update && sudo apt install git -y git --version 第3步:获取 OpenClaw 源码与镜像 创建工作目录,并拉取汉化版的源码和预构建的 Docker 镜像 。 # 1. 创建并进入部署目录 mkdir -p /opt/openclaw && cd /opt/openclaw # 2. 拉取2026版OpenClaw源码(汉化版) git clone https://github.com/openclaw-community/openclaw-zh.git . # 3. 拉取OpenClaw核心镜像(国内加速源) docker pull registry.cn-hangzhou.aliyuncs.com/openclaw/openclaw-core:2026-zh docker pull registry.cn-hangzhou.aliyuncs.com/openclaw/openclaw-web:2026-zh # 4. 验证镜像拉取结果 docker images | grep openclaw 第4步:初始化配置文件 复制配置文件模板并进行修改,填入你的 API Key 等重要信息 。 # 1. 复制默认配置文件 cp config/example.yaml config/config.yaml # 2. 编辑配置文件 (这里使用nano,你也可以用vim) nano config/config.yaml 找到文件中的对应部分,修改为以下内容。请务必将 你的阿里云百炼API-Key 替换为你自己的密钥 。 # ① 模型配置(替换为你的API-Key) models: providers: bailian: apiKey: "你的阿里云百炼API-Key" # <-- 在这里填入你的Key model: "bailian/qwen3-max-2026-01-23" # ② 服务端口配置 server: port: 18789 host: "0.0.0.0" # 监听所有网络接口,方便局域网内访问 # ③ 数据存储配置(本地路径) storage: local: path: "/opt/openclaw/data" 保存文件 (nano 中按 Ctrl+X,然后按 Y 确认,再按 Enter)。 第5步:启动 OpenClaw 服务 使用 Docker Compose 启动服务,并检查运行状态 。 # 1. 启动服务(后台运行) docker compose up -d # 2. 查看服务启动状态(所有容器应为 "Up" 状态) docker compose ps # 3. (可选)查看启动日志,确保无错误 docker compose logs -f 第6步:访问并完成初始化 打开浏览器,访问 http://127.0.0.1:18789 (如果在本机) 或 http://你的局域网IP:18789。首次访问时,页面会引导你设置管理员密码,之后就可以开始使用你的 OpenClaw 了 。 方案二:使用 Node.js 从源码部署 这种方式更贴近开发环境,适合需要定制功能的用户。 第1步:安装 Node.js 环境 OpenClaw 需要 Node.js 22 或更高版本 。推荐使用 NodeSource 仓库进行安装。 # 1. 添加 NodeSource 仓库 (以 Node.js 22 为例) curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - # 2. 安装 Node.js sudo apt install -y nodejs # 3. 验证安装 node -v # 应显示 v22.x.x 或更高 npm -v # 4. (可选) 配置 npm 国内镜像加速 npm config set registry https://registry.npmmirror.com 第2步:安装 OpenClaw 官方提供了一个一键安装脚本,会自动完成全局安装 。 # macOS / Linux 系统执行 curl -fsSL https://openclaw.ai/install.sh | bash 安装脚本执行完成后,会自动进入一个名为 onboard 的交互式设置向导。如果向导中断,你可以随时通过 openclaw onboard --install-daemon 命令重新启动 。 第3步:处理可能遇到的问题 command not found 错误: 安装后如果找不到 openclaw 命令,通常是因为 npm 的全局安装目录不在系统的 PATH 环境变量中。你可以通过 npm prefix -g 找到该目录(例如 /usr/local),然后将 export PATH="$(npm prefix -g)/bin:$PATH" 添加到你的 ~/.bashrc 或 ~/.zshrc 文件中,并执行 source ~/.bashrc 使其生效 。 sharp 模块安装失败: 在某些系统上,可能会遇到图像处理库 sharp 的安装错误。可以尝试设置环境变量绕过本地编译:SHARP_IGNORE_GLOBAL_LIBVIPS=1 npm install -g openclaw@latest 。 第4步:运行 OpenClaw 完成配置后,你可以通过以下命令启动 OpenClaw 的 Gateway 核心服务 : openclaw gateway 然后,打开浏览器访问 http://127.0.0.1:18789 即可看到 Web 控制台界面 。 总的来说,对于大多数想要本地尝鲜的朋友,我强烈建议使用 Docker 方案,它足够简单且不容易把系统环境弄乱。如果你是个喜欢折腾的开发者,希望深入定制 OpenClaw 的能力,那么 Node.js 源码部署会更适合你。

28 天前
2026年2月,维也纳这座古典音乐之都意外成为AI开源社区的焦点。继旧金山ClawCon之后,OpenClaw(中文社区昵称“小龙虾”或“龙虾”)的欧洲首场线下盛会——ClawCon Vienna顺利举办,吸引了约500名开发者、创业者、AI爱好者和非技术背景的“蟹教徒”齐聚一堂。现场能量爆棚,原定场地直接爆满,主办方紧急加开直播点,线上线下同步狂欢。这场聚会不仅是技术分享,更是“养龙虾”亚文化的一次集体高光。 Peter Steinberger:家乡英雄的“衣锦还乡” OpenClaw创始人Peter Steinberger(中文圈常称“虾爸”或“龙虾之父”)是奥地利本地人,曾就读维也纳工业大学,早年创办PSPDFKit(移动PDF解决方案公司),2021年以高价出售大部分股份后一度“退休”。2025年底,他重出江湖推出Clawdbot(后更名为OpenClaw),一个完全本地运行、开源的自主AI Agent框架,支持多模型调用、工具集成和复杂任务执行。 在维也纳大会上,Peter以“回家”姿态登台,分享了项目从车库原型到全球现象的历程。他强调OpenClaw的核心理念:让普通人也能轻松拥有强大AI能力,无需编程门槛,就能让Agent完成从酿啤酒配方生成到模拟小型公司运营的各种任务。现场开发者分享真实案例,有人用它自动化职场周报,有人构建个人知识库,还有人让它24小时监控市场情报。企业家和开发者一致认为,“Agent经济”已在悄然成型,而OpenClaw正成为这场革命的先锋。 从聊天框“逃离”:3D可视化与具身进化 大会最亮眼的Demo之一来自开发者Dominik Scholz。他基于OpenClaw打造了一个3D交互界面(使用Three.js + Electron),将Agent的推理过程从线性文本“解放”到三维空间:思考路径如星云扩散、决策节点如能量流,用户可以从“驾驶舱视角”直观观察AI内部逻辑,避免传统黑盒体验。 这一展示呼应了社区共识:未来的AI Agent不应永远困在对话框里,而应向更沉浸、更具情绪价值的形态进化。有人开玩笑说,早期的“soul.md”文件被删是为了“净化灵魂”,但也反映出大家对AI具身化、元宇宙式交互的热情探索。 史上首款“龙虾手机”亮相:25美元实现廉价具身AI 另一个重磅炸场的是开发者Marshall的ClawPhone项目。他在一台仅售25美元的廉价手机上安装OpenClaw,并授予完整硬件权限。Agent可直接调用麦克风、摄像头、短信、打印机等,实现实时TTS(语音合成)、浏览器自动化、短信预约、设备远程控制等功能。 现场演示中,ClawPhone通过打印机错误音“哔哔”反馈任务状态、WhatsApp审批流程、甚至自主预约日程。Marshall认为,这种极客玩具预示未来:每个房间、实验室或小型机器人可能都配备类似廉价“龙虾终端”——断网也能运行,极端情况下“一锤砸掉”即可关停,形成分布式、去中心化的具身AI节点。 全球“养龙虾”浪潮:从旧金山到维也纳,再到亚洲 ClawCon Vienna是OpenClaw全球化扩张的又一里程碑。上周旧金山首场ClawCon已吸引超1000人,韩国AI女友项目Clawra上线后一夜爆火。全球开发者正围绕OpenClaw构建技能市场、Prompt库、多Agent协作系统,从单一工具演变为活跃开源生态。 维也纳的狂欢证明:OpenClaw已超越技术本身,成为一种社区文化现象。“蟹教徒”“虾粮”“蜕皮进化”“龙虾大逃杀”等梗在中文圈刷屏,英文社区也同步玩梗。项目从本地运行到硬件具身、从聊天框到3D空间,正在以惊人速度进化。 结语:小龙虾的下一个蜕皮 维也纳ClawCon不是终点,而是OpenClaw“征服全世界”叙事的又一章。Peter Steinberger的回归、社区的狂热、硬件的创新,都在告诉我们:开源AI Agent的春天来了,而“小龙虾”正以最意想不到的方式,搅动整个行业。
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI