
华为小艺是华为推出的AI聊天工具,内置了DeepSeek深度思考模型,可以为用户提供多维度的AI问答及智能写作等服务。
AI问答:支持用户询问各类问题,如“总结一下今天的新闻”,借助联网搜索与DeepSeek技术将新闻总结成摘要。还能对特定领域进行深度分析,像预测国内金价走势、剖析电影票房惨淡原因等,体现其广泛的知识覆盖和分析能力。
AI写作:可按用户需求创作不同类型文案。例如,撰写关于定期锻炼、身体健康和饮食关系的宣传文案,能结合健康知识和宣传技巧,生成具有吸引力和说服力的内容,满足市场营销、健康科普等场景的文案创作需求。
市场调研与报告:能对复杂的市场信息进行归纳整合,像分析国内维生素类产品功能分布、剂型特点、竞争情况,并输出报告。这有助于企业和研究人员快速了解行业动态,为决策提供数据支持。
方案策划:根据用户设定的目标制定方案,针对非从业人员制定大模型知识学习方案,充分考虑目标群体的基础和需求,规划合理的学习路径和内容。
自媒体写作:可以创作自媒体文章,以特定角度撰写电影《绿皮书》影评,为自媒体创作者提供内容创作灵感和帮助,节省创作时间,提升内容质量。
编程助手:在功能开发方面,能提供技术实现方案,如使用arkts实现类似ios右滑解锁功能。同时,还能解决编程中的实际问题,例如根据要求编写清除excel指定单元格内容的Python代码,以及协助处理代码报错,为开发者提供便利。
AI翻译:支持中译英和英译中,涵盖日常语句、专业术语、新闻报道等多种内容的翻译,满足不同场景下的语言转换需求。

11 个月前
华为昇腾推出的Atlas 900 SuperCluster成为国产AI算力的重要突破,标志着华为在超大规模AI训练集群领域的领先地位。 1. 技术突破与性能表现 超大规模算力支持:Atlas 900 SuperCluster 采用创新的超节点架构,支持超万亿参数大模型训练,单集群可管理数十万张昇腾AI加速卡(如昇腾910B),并实现高可用性设计,包括超高速互联、高效液冷散热和瞬时爆发供电。 性能对标英伟达A100:实测数据显示,昇腾AI集群在训练Meta Llama、BloomGPT等模型时,效率可达英伟达A100的1.1倍,并在部分场景实现10倍领先于其他国产方案。 国产化算力标杆:科大讯飞等企业已采用昇腾万卡集群,训练效率达到英伟达A100的0.8~1.2倍,证明其在国产大模型训练中的竞争力。 2. 架构与生态创新 全栈自主可控:从硬件(昇腾芯片、鲲鹏CPU)、架构(达芬奇架构)、软件(MindSpore框架)到开发工具(CANN异构计算),华为构建了完整的AI计算产业链。 昇腾910B芯片升级:相比前代昇腾910,910B在FP32性能上显著提升,支持多NPU模组互联,提供更高带宽和算力密度,进一步缩小与英伟达高端GPU的差距。 生态挑战与机遇:尽管昇腾算力已对标英伟达,但CUDA生态的成熟度仍是竞争短板。华为通过开源MindSpore、适配主流框架(如PyTorch、TensorFlow)及开发者扶持计划(如15亿美元生态投入)加速生态建设。 华为Atlas 900 SuperCluster的推出,不仅提升了国产AI集群的竞争力,也为全球AI算力格局注入了新变量。随着生态完善,昇腾有望在AI训练与推理市场占据更关键地位。 (根据资讯整理)

1 年前
2025年2月18日,“2025医疗人工智能与精准诊疗发展论坛”在瑞金医院召开。此次盛会汇聚了众多行业专家、学者及华为代表,共同见证瑞智病理大模型RuiPath的发布。 近年来,AI技术在全球范围内蓬勃发展,为各行业带来了深刻变革,医疗领域也不例外。为有效提升病理切片检查的效率和诊断准确率,瑞金医院携手华为公司推进数字化智慧病理科建设并获得成果。此次活动线上、线下同步播出,由瑞金医院-上海市数字医学创新中心朱立峰主持。 致辞嘉宾: 宁光 中国工程院院士/瑞金医院院长 上海市医院协会副会长 看着台下爆满的会场,我深切感受到:这场技术浪潮已然到来。我也曾学习安装豆包、摸索Kimi、尝试DeepSeek——这些过程让我逐步思考:当AI重构社会的速度远超想象时,医院正面临更多机遇和挑战。 我们像活在玻璃瓶里的人,瓶外的铁锤随时可能落下。三年前讨论的“未来技术”,如今已成为基础工具。瑞金医院选择主动打碎瓶子,找到临床应用中的“刚需”,助力病理科图像分析,今天我们将一起见证瑞智病理大模型RuiPath的发布。除此以外,我们还将感受更震撼的多模态融合。 可以想见,如果华为的ICT基础设施、联通的传输能力这些技术若注入医疗场景,那将是怎样的盛宴。但比技术更重要的,是守住生命至上的底线——我们只用经得起验证的技术。在此向全国同仁发出邀请:瑞金医院愿意做医疗AI的“创新实验室”。我们深知机器必然替代部分人力,但人文关怀永远不可替代,让我们共同构建“技术-人文”双螺旋,为你的梦想插上一双“理性的翅膀”。 冯骏 上海市卫生健康委员会(信息化管理处)副主任 当前AI技术推动医疗向智能化、精准化迈进,国家积极推进卫生健康行业“人工智能+”应用创新发展,上海致力于打造医学人工智能高地,已发布相关方案,将推进医疗健康数据新型基础设施建设等工作。本次论坛聚焦病理诊断中AI应用创新,该技术有望缓解病理医生资源短缺,提升检查效率和诊断准确率。此次瑞金医院与华为合作,发布的大模型是重要一步,期待此次大会医生、专家共同探讨未来方向,为健康中国建设贡献力量。 王育 上海申康医院发展中心副主任 国家妇产疾病临床医学研究中心上海分中心负责人 近年来,AI技术在全球蓬勃发展,在医疗领域带来变革,国家重视并出台文件推进医疗AI创新应用。上海作为前沿阵地积极响应,申康医院发展中心推动市级医院医学AI部署应用。病理AI发展有着重要意义,期待此次论坛为医疗AI发展注入动力,助力公立医院高质量发展。同时,也希望通过此次论坛能够进一步加强产学研用的深度融合,促进人工智能技术在医疗领域的转化与落地。 胡建平 国家卫生健康委统计信息中心原副主任 中国卫生信息与健康医疗大数据学会副会长 当前健康中国与数字中国战略深度融合,我们正推动经验医学向精准医学的历史性跨越。在此进程中,病理诊断作为临床金标准,其革新意义尤为重大。AI不仅提升病理诊断效率和准确性,更能将专家经验转化为普惠资源。瑞金医院与华为的合作具有示范价值——通过百万级病理数据与先进数据存力的融合,实现了从数字化病理到智能化诊疗的突破。 瑞智病理大模型RuiPath发布 王朝夫 上海交通大学医学院病理学系主任 瑞金医院病理科主任 自2021年底启动以来,瑞金医院病理科在院领导支持下,与合作伙伴紧密协作,实现了从信息化到数字化再到智能化的跨越。2023年3月,端到端数字化智慧病理系统上线,标志着我们迈入新时代。我们坚持“以场景驱动技术,以技术赋能场景”的理念,汇聚多方力量,攻克难题。今天,瑞智病理大模型RuiPath的发布,标志着瑞金病理科在智能化领域迈出了更加坚实的一步,也为我国病理诊断的均质化、高效化发展注入了新的潜能。 笪倩 瑞金医院病理科主任助理 当前,病理面临数字化程度低、数据质量参差不齐等挑战。瑞金医院病理科依托医院大模型布局,基于百万级数字切片库,打造了瑞智病理大模型RuiPath。RuiPath实现4大创新,包括场景与应用创新、模型与算法创新、存算协同创新和AI工具链创新。RuiPath覆盖了中国每年90%癌症发病人群罹患的癌种,并且亚专科知识问答深度达到专家级知识水平,改变传统病理医生的工作模式,提升了诊断效率与质量。未来,我们将继续技术创新,推动标准建立,打造“无人病理科”,复制瑞金模式,服务更多患者。 周跃峰 华为公司副总裁、数据存储产品线总裁 AI正在重构千行万业,造就数据的黄金时代,然而AI进入各行业仍面临着三大挑战。首先,从通用大模型到行业场景大模型,需要进行针对性训练;其次,行业场景模型训练和应用落地难,项目开发难度大,人员技术要求高,开发周期不可控;最后,AI集群可用度往往不足50%,需要不断提升全系统调度效率。基于以上挑战,华为提供DCS AI解决方案,构筑行业大模型根基。 (信息来源:华夏病理网)

1 年前
华为的FusionPower业务单元主要关注的是智能电力解决方案,对于FusionPower这样的智能电力解决方案,虽然其核心不是人工智能,但很可能采用了华为的其他产品和服务中的AI技术。

1 年前
华为盘古气象大模型是精度超过传统数值预报方法的AI模型,速度相比传统数值预报提速10000倍以上。

1 天前
OpenClaw 本质是“开发者基础设施”,而非面向大众的 SaaS 产品。

21 天前
用 OpenClaw 搭建一个本地 Agent 中枢(完整方案) 不是再做一个 ChatGPT,而是建立一个真正“可控、可组合、可扩展”的本地 AI Agent 中枢。 当越来越多团队开始意识到: 云端 LLM 成本不可控 数据隐私存在风险 单一 Agent 无法解决真实业务 “本地 Agent 中枢” 正在成为一个更现实的选择。 本文将完整讲清楚: 👉 如何用 OpenClaw 搭建一个真正可用的本地 Agent 中枢 👉 它适合谁,不适合谁 👉 与 LangGraph / CrewAI 的核心差异 什么是「本地 Agent 中枢」? 先明确一个概念,避免误解。 ❌ 不是: 一个本地 ChatGPT 一个简单的 Prompt 管理器 ✅ 而是: 一个能够统一管理多个 Agent、模型、工具和任务流程的本地系统 一个合格的本地 Agent 中枢,至少要解决 5 件事: 多 Agent 协作(不是单轮对话) 任务调度与状态管理 模型可替换(本地 / API) 工具调用(搜索、代码、文件等) 可长期运行、可追溯 OpenClaw 的定位,正是这个“中枢层”。 为什么选择 OpenClaw? 在进入部署前,必须先回答一个现实问题: 为什么不是 LangGraph / CrewAI / AutoGen? 简要结论(非常重要) 框架 更适合 LangGraph 开发者写 Agent 流程 CrewAI 小规模角色协作 AutoGen 对话驱动实验 OpenClaw 长期运行的 Agent 中枢 OpenClaw 的核心优势 1️⃣ 架构清晰,不是“脚本拼装” 有明确的 Agent 管理层 有任务执行与状态机制 不是写完一次就丢的 Demo 2️⃣ 原生支持多模型策略 本地模型 云 API fallback / 优先级策略 3️⃣ 更接近“生产环境思维” 可持续运行 可复用 Agent 可演进 如果你的目标是: “做一个长期使用的 AI 中枢,而不是一段实验代码” 那 OpenClaw 是目前更合理的选择之一。 整体架构:OpenClaw 本地 Agent 中枢怎么搭? 这是一个最小可用但可扩展的架构方案。 🧩 架构拆解 ┌─────────────────────────┐ │ 用户 / 系统 │ └──────────┬──────────────┘ │ ┌──────────▼──────────┐ │ OpenClaw 中枢层 │ │ - Agent Registry │ │ - Task Orchestrator│ │ - Memory / State │ └──────────┬──────────┘ │ ┌─────────▼─────────┐ │ Agent 集群 │ │ - Research Agent │ │ - Coding Agent │ │ - Planning Agent │ │ - Tool Agent │ └─────────┬─────────┘ │ ┌─────────▼─────────┐ │ 模型 & 工具层 │ │ - 本地 LLM │ │ - API LLM │ │ - Search / FS / DB │ └───────────────────┘ 部署准备(实战级) 1️⃣ 基础环境 推荐环境(已验证): Linux / WSL / macOS Docker + Docker Compose Python 3.10+ 2️⃣ 模型选择建议(非常现实) 场景 推荐 本地推理 Qwen / LLaMA 稳定输出 GPT / Claude API 混合方案 本地 + API fallback 👉 关键不是模型多,而是“可切换” 核心步骤:搭建 OpenClaw 本地 Agent 中枢 Step 1:部署 OpenClaw 核心 git clone https://github.com/xxx/openclaw cd openclaw docker compose up -d 启动后,你将拥有: Agent 管理入口 任务调度服务 统一配置中心 Step 2:定义你的第一个 Agent 一个 Agent ≠ 一个 Prompt 而是一个职责明确的“角色” 示例: agent: name: research_agent role: 信息调研 model: local_llm tools: - web_search - file_reader 建议起步 Agent: Research Agent(信息收集) Planner Agent(任务拆解) Executor Agent(执行) Step 3:建立 Agent 协作流程 例如一个典型任务: “调研某行业 → 输出分析 → 给出建议” 流程是: Planner 拆解任务 Research Agent 收集信息 Executor Agent 输出结果 中枢保存状态与结果 👉 这一步,才是“中枢”的价值所在 一个真实可用的示例场景 🎯 场景:AI 工具评估中枢 你可以搭一个 Agent 中枢来做: 自动收集 AI 工具信息 对比功能 / 定价 输出结构化报告 长期更新 这类系统: 人工成本极高 用 Agent 非常合适 总结:什么时候该用 OpenClaw? 当你意识到:AI 不再是“一次性回答”,而是“持续协作的系统” 那你就已经走在 OpenClaw 这条路上了。 OpenClaw 不是让你“更快用 AI”,而是让你“真正拥有 AI 能力”。

24 天前
Asking User Question Tool(AI智能体版) 这是AI智能体必备的交互式工具,让Agent在执行任务时主动向用户提问、澄清需求、收集信息,避免瞎猜、减少返工、提升准确率。 一、核心定位 本质:Agent的“人在回路”交互接口,让AI在模糊/信息不足时暂停执行,向用户要明确输入。 作用:把“模糊指令→AI瞎做→反复修改”变成“AI提问→用户明确→一次做对”。 常见名称: AskUserQuestion 、 AskUserQuestionTool 、 ask_user_question 。 二、核心工作流(极简) 1. Agent判断信息不足:发现需求模糊、缺少参数、需要决策 2. 调用工具生成结构化问题:单选/多选+自定义输入+说明 3. 用户作答:在聊天/弹窗/终端选择或输入 4. Agent接收答案:解析结构化结果,补全上下文 5. 继续执行任务:基于完整信息推进,不再猜 三、关键能力(标配) 结构化提问:标题+问题+2–4个选项+单选/多选+ Other 自定义输入 上下文澄清:自动追问,直到需求完全明确 结构化返回:输出JSON,方便前端渲染(按钮/表单/弹窗) 人在回路:强制用户确认,避免AI自主决策风险 多轮交互:可连续提问,形成“需求访谈”流程 四、主流实现(你会遇到的版本) Claude Code(Anthropic) 原生内置,最成熟 支持多轮、单选/多选、自定义输入 常用于代码生成、需求梳理 Qwen-Agent(通义千问) 开源工具: qwen_agent/tools/ask_user_question.py 支持参数: question / options / explanations / multiSelect / allowFreeform Spring AI AskUserQuestionTool ,Java生态 模型无关,可对接GPT/Claude/Gemini OpenClaw / EasyClaw 集成到本地智能体,用于任务执行前确认 本地运行,隐私优先 五、典型使用场景(高频) 需求澄清:“做一个登录页”→AI问:技术栈?风格?是否第三方登录? 偏好收集:“写报告”→AI问:正式/ casual?长度?受众? 决策点确认:“部署服务”→AI问:云厂商?实例规格?环境? 复杂任务拆解:多轮提问,把模糊需求变成可执行步骤 六、与普通聊天的区别 普通聊天:用户主动说,AI被动答;信息靠用户自己补全 AskUserQuestion:AI主动问、结构化问、按任务节点问;用户只需点选/填空,效率高、歧义少 七、为什么要用(价值) 减少返工:一次做对,节省时间与Token 提升准确率:AI不瞎猜,结果更贴合需求 降低门槛:用户不用写长Prompt,点选即可 安全可控:关键决策必须用户确认,避免误操作 八、一句话总结 Asking User Question Tool = AI智能体的“需求访谈官”,让Agent从“猜着做”变成“问清楚再做”,是构建可靠、实用AI助手的核心工具。

27 天前
部署本地 OpenClaw 主要有两种主流且资料详尽的方式,你可以根据自己的技术背景和需求来选择。 我把这两种方式的流程整理成了一个概览表格,方便你快速对比和决策: 特性 方案一:Docker 部署(推荐新手) 方案二:Node.js 源码部署(适合开发者) 核心依赖 Docker, Docker Compose, Git Node.js (≥22), npm, Git 优点 环境隔离,部署和卸载干净,失败率低,适合快速体验 配置灵活,方便二次开发和调试,可直接运行最新源码 缺点 需要了解基本的 Docker 命令 对系统环境要求较高,可能遇到依赖冲突 适用人群 希望快速、稳定运行OpenClaw的用户 开发者、希望修改源码或深度定制OpenClaw的用户 方案一:使用 Docker 部署(推荐) 这种方法将 OpenClaw 运行在容器中,与你的系统环境隔离,最为稳妥。 第1步:准备工作与环境检查 在开始之前,请确保你的电脑满足最低要求:CPU ≥ 2核,内存 ≥ 4GB,磁盘空间 ≥ 20GB 。 第2步:安装通用依赖 你需要安装 Docker、Git 等工具。以下是 Linux (Ubuntu/Debian) 的示例命令,Windows 用户请手动下载安装 Docker Desktop 和 Git 。 # 1. 安装 Docker (使用阿里云镜像加速) curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun # 2. 启动 Docker 并设置开机自启 sudo systemctl start docker sudo systemctl enable docker # 3. 验证 Docker 安装 docker --version && docker compose version # 4. 安装 Git sudo apt update && sudo apt install git -y git --version 第3步:获取 OpenClaw 源码与镜像 创建工作目录,并拉取汉化版的源码和预构建的 Docker 镜像 。 # 1. 创建并进入部署目录 mkdir -p /opt/openclaw && cd /opt/openclaw # 2. 拉取2026版OpenClaw源码(汉化版) git clone https://github.com/openclaw-community/openclaw-zh.git . # 3. 拉取OpenClaw核心镜像(国内加速源) docker pull registry.cn-hangzhou.aliyuncs.com/openclaw/openclaw-core:2026-zh docker pull registry.cn-hangzhou.aliyuncs.com/openclaw/openclaw-web:2026-zh # 4. 验证镜像拉取结果 docker images | grep openclaw 第4步:初始化配置文件 复制配置文件模板并进行修改,填入你的 API Key 等重要信息 。 # 1. 复制默认配置文件 cp config/example.yaml config/config.yaml # 2. 编辑配置文件 (这里使用nano,你也可以用vim) nano config/config.yaml 找到文件中的对应部分,修改为以下内容。请务必将 你的阿里云百炼API-Key 替换为你自己的密钥 。 # ① 模型配置(替换为你的API-Key) models: providers: bailian: apiKey: "你的阿里云百炼API-Key" # <-- 在这里填入你的Key model: "bailian/qwen3-max-2026-01-23" # ② 服务端口配置 server: port: 18789 host: "0.0.0.0" # 监听所有网络接口,方便局域网内访问 # ③ 数据存储配置(本地路径) storage: local: path: "/opt/openclaw/data" 保存文件 (nano 中按 Ctrl+X,然后按 Y 确认,再按 Enter)。 第5步:启动 OpenClaw 服务 使用 Docker Compose 启动服务,并检查运行状态 。 # 1. 启动服务(后台运行) docker compose up -d # 2. 查看服务启动状态(所有容器应为 "Up" 状态) docker compose ps # 3. (可选)查看启动日志,确保无错误 docker compose logs -f 第6步:访问并完成初始化 打开浏览器,访问 http://127.0.0.1:18789 (如果在本机) 或 http://你的局域网IP:18789。首次访问时,页面会引导你设置管理员密码,之后就可以开始使用你的 OpenClaw 了 。 方案二:使用 Node.js 从源码部署 这种方式更贴近开发环境,适合需要定制功能的用户。 第1步:安装 Node.js 环境 OpenClaw 需要 Node.js 22 或更高版本 。推荐使用 NodeSource 仓库进行安装。 # 1. 添加 NodeSource 仓库 (以 Node.js 22 为例) curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - # 2. 安装 Node.js sudo apt install -y nodejs # 3. 验证安装 node -v # 应显示 v22.x.x 或更高 npm -v # 4. (可选) 配置 npm 国内镜像加速 npm config set registry https://registry.npmmirror.com 第2步:安装 OpenClaw 官方提供了一个一键安装脚本,会自动完成全局安装 。 # macOS / Linux 系统执行 curl -fsSL https://openclaw.ai/install.sh | bash 安装脚本执行完成后,会自动进入一个名为 onboard 的交互式设置向导。如果向导中断,你可以随时通过 openclaw onboard --install-daemon 命令重新启动 。 第3步:处理可能遇到的问题 command not found 错误: 安装后如果找不到 openclaw 命令,通常是因为 npm 的全局安装目录不在系统的 PATH 环境变量中。你可以通过 npm prefix -g 找到该目录(例如 /usr/local),然后将 export PATH="$(npm prefix -g)/bin:$PATH" 添加到你的 ~/.bashrc 或 ~/.zshrc 文件中,并执行 source ~/.bashrc 使其生效 。 sharp 模块安装失败: 在某些系统上,可能会遇到图像处理库 sharp 的安装错误。可以尝试设置环境变量绕过本地编译:SHARP_IGNORE_GLOBAL_LIBVIPS=1 npm install -g openclaw@latest 。 第4步:运行 OpenClaw 完成配置后,你可以通过以下命令启动 OpenClaw 的 Gateway 核心服务 : openclaw gateway 然后,打开浏览器访问 http://127.0.0.1:18789 即可看到 Web 控制台界面 。 总的来说,对于大多数想要本地尝鲜的朋友,我强烈建议使用 Docker 方案,它足够简单且不容易把系统环境弄乱。如果你是个喜欢折腾的开发者,希望深入定制 OpenClaw 的能力,那么 Node.js 源码部署会更适合你。
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI