Phi-3 AI模型是微软推出的一系列语言模型。主要特点如下:
不过,Phi-3 系列模型也并非完美无缺,比如在事实性知识方面的表现并不理想,在某些任务上可能受到模型规模的限制,但微软也在探索相应的缓解方法。
免责声明:本网站仅提供网址导航服务,对链接内容不负任何责任或担保。
10 天前
LoRA(Low-Rank Adaptation)是一种对大模型进行“轻量级微调”的技术。

13 天前
Gemini 3 标志着AI模型从“增量优化”向“范式转变”的重大跃进。

1 个月前
DeepSeek OCR 介绍 DeepSeek OCR 是由中国 AI 公司 DeepSeek AI 于 2025 年 10 月 20 日发布的开源视觉语言模型(VLM),旨在探索“光学上下文压缩”(Contexts Optical Compression)的创新范式。它不是传统的 OCR(光学字符识别)工具,而是将视觉编码视为文本信息的压缩层,帮助大型语言模型(LLM)更高效地处理长文档、图像和多模态数据。 该模型的灵感来源于“一图胜千言”的理念,通过将文本转化为视觉表示,实现显著的令牌(token)减少,同时保持高准确性。 核心创新与架构 DeepSeek OCR 的核心思想是将文本作为图像处理,从而实现高效压缩: 视觉-文本压缩:传统 LLM 处理 1000 字文档可能需要数千个文本令牌,而 DeepSeek OCR 通过视觉编码器将图像压缩为更少的视觉令牌(可减少 7-20 倍),然后解码回文本。测试显示,它能保留 97% 的原始信息。 双阶段架构: DeepEncoder:视觉编码器,负责图像处理,包括文档、图表、化学分子和简单几何图形。它基于先进的视觉模型(如 Vary、GOT-OCR2.0 和 PaddleOCR 的灵感),高效提取特征。 DeepSeek-3B-MoE:解码器,使用混合专家模型(MoE,激活参数仅 5.7 亿),生成文本输出。整个模型大小约为 6.6 GB,运行速度快、内存占用低。 多功能扩展:除了基本 OCR,它支持解析图表(生成 Markdown 表格和图表)、化学公式、几何图形,甚至自然图像。深解析模式(Deep Parsing Mode)特别适用于金融图表等结构化数据。 该模型在 OmniDocBench 等基准测试中达到了端到端模型的 SOTA(最先进)性能,优于 MinerU 2.0 和 GOT-OCR2.0 等更重的模型,同时视觉令牌使用最少。 它还支持 vLLM(虚拟 LLM 推理引擎),便于批量处理。 优势与应用场景 效率提升:减少计算成本,适合处理长上下文(如聊天历史或长文档)。例如,将旧对话“低分辨率”存储为图像,模拟人类记忆衰减机制。 实用性:在 OCR 之外,它能处理复杂视觉任务,如从图像中提取结构化数据,而非简单文本复制。 开源与易用:模型托管在 Hugging Face(deepseek-ai/DeepSeek-OCR),支持 PyTorch 和 CUDA。GitHub 仓库提供完整代码和示例。 局限性:作为实验性模型,对简单矢量图形解析仍有挑战;输出有时可能出现幻觉(如中文符号混入英文响应)。 如何使用(快速入门) 安装依赖:克隆 GitHub 仓库(git clone https://github.com/deepseek-ai/DeepSeek-OCR.git),安装 Transformers 和 vLLM。 Python 示例(使用 Hugging Face): from transformers import AutoModel, AutoTokenizer from PIL import Image import torch model_name = 'deepseek-ai/DeepSeek-OCR' tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) model = AutoModel.from_pretrained(model_name, trust_remote_code=True, torch_dtype=torch.bfloat16).cuda().eval() # 加载图像 image = Image.open("your_image.png").convert("RGB") # 提示(prompt) prompt = "<image>\nFree OCR." # 或其他任务提示,如 "<image>\nParse chart." inputs = tokenizer(prompt, return_tensors="pt").to(model.device) inputs["image"] = image # 添加图像 with torch.no_grad(): outputs = model.generate(**inputs, max_new_tokens=512) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) 这将从图像中提取并输出文本。 DeepSeek OCR 代表了 OCR 从“文本提取”向“多模态压缩”转型的趋势,对于 AI 研究者和开发者来说,是一个值得关注的开源工具。

7 个月前
📢 OpenAI即将发布GPT-4.1,多模态能力再升级! 据多家科技媒体报道,OpenAI计划于下周(2025年4月中旬)推出GPT-4.1,作为GPT-4o的升级版本,进一步强化多模态推理能力,并推出轻量级mini和nano版本。 🔍 关键升级点 更强的多模态处理 GPT-4.1将优化对文本、音频、图像的实时处理能力,提升跨模态交互的流畅度。 相比GPT-4o,新模型在复杂推理任务(如视频理解、语音合成等)上表现更优。 轻量化版本(mini & nano) GPT-4.1 mini 和 nano 将面向不同应用场景,降低计算资源需求,适合移动端或嵌入式设备。 配套新模型(o3 & o4 mini) OpenAI还将推出o3推理模型(满血版)和o4 mini,优化特定任务性能。 部分代码已在ChatGPT网页端被发现,表明发布临近。 ⏳ 发布时间与不确定性 原定下周发布,但OpenAI CEO Sam Altman 曾预警可能因算力限制调整计划。 同期,ChatGPT已升级长期记忆功能,可回顾用户历史对话,提供个性化服务(Plus/Pro用户已开放)。 🌍 行业影响 谷歌(Gemini AI)和微软(Copilot)近期也强化了AI记忆功能,竞争加剧。 GPT-4.1可能进一步巩固OpenAI在多模态AI领域的领先地位,推动商业应用(如智能客服、内容创作等)。 📌 总结:GPT-4.1的发布标志着OpenAI在多模态AI上的又一次突破,但具体性能提升和落地效果仍需观察。我们将持续关注官方更新! (综合自腾讯新闻、The Verge、搜狐等)

8 个月前
2025年3月31日,在2025年汉诺威工业博览会上,一台罗尔斯-罗伊斯(Rolls-Royce)的飞机发动机被展示在微软的展台上。这家发动机制造商利用微软的人工智能技术进行数据管理和数据分析。 人工智能(AI)是汉诺威工业展2025年的核心主题。这场全球最重要的工业博览会将于3月31日至4月4日在德国汉诺威举行,届时将展示人工智能如何为工业带来革命性变革。以下是为何这一年对工业界如此重要的原因。 人工智能成为竞争力的关键 人工智能不再是科幻电影中的概念,而是已成为工业领域的现实。2025年的汉诺威工业展将展示人工智能如何通过优化生产流程、提升效率和推动创新来增强企业的竞争力。例如,人工智能助手可以支持工厂车间的日常工作,而基于数据的预测性维护则能减少停机时间。 微软等科技巨头将在展会上展示其最新的人工智能解决方案。例如,微软推出的“工厂运营代理”(Factory Operations Agent)是一种人工智能助手,旨在优化工厂车间的流程。它能让工人通过自然语言查询分析机器数据,帮助管理者改进生产过程并快速识别和解决问题。 一项调查显示,82%的企业认为人工智能对德国工业的竞争力至关重要。然而,46%的企业担心德国工业可能会错过人工智能革命的机遇。这使得2025年的汉诺威工业展成为展示最新技术并推动其实施的关键平台。 加拿大作为伙伴国:人工智能与可持续发展的结合 2025年的伙伴国是加拿大,该国以“未来已来”(The future's here)为主题,展示其在自动化、能源、数字化转型和绿色技术领域的优势。加拿大拥有超过200家参展企业,致力于推动绿色、数字化和可持续的工业未来。人工智能在其中扮演着重要角色,例如通过优化能源使用和支持可再生能源技术实现更可持续的生产方式。 加拿大财政部长弗朗索瓦-菲利普·尚帕涅(François-Philippe Champagne)表示:“我们很高兴能继续国际合作,并在汉诺威工业展上展示超过200家代表绿色、数字化和可持续未来的加拿大企业。”这不仅加强了德加之间的经济联系,也为全球工业的未来发展指明了方向。 人工智能的具体应用 汉诺威工业展2025将展示人工智能在工业中的多种实际应用,包括: 自动化和机器人技术:人工智能驱动的自主机器人能够执行复杂任务,提高生产效率。 预测性维护:通过分析机器数据,人工智能可以预测潜在故障,从而减少意外停机。 质量控制:人工智能系统可以通过图像识别技术快速检测产品缺陷。 供应链优化:人工智能帮助企业更好地管理库存和物流,降低成本。 这些应用不仅提高了效率,还为中小企业提供了利用尖端技术的机会。展会上还将特别设立面向中小企业的展区,展示专为这一群体设计的可负担的人工智能解决方案。 人工智能的挑战与机遇 尽管人工智能潜力巨大,但其推广也面临挑战。例如,数据隐私和人工智能系统的透明度问题引起了广泛关注。欧盟即将推出的《人工智能法案》(AI Act)将为人工智能的使用设定严格标准,这可能会影响其在欧洲的推广速度。 与此同时,人工智能也带来了巨大机遇。它不仅能提升生产力,还能加速新产品和服务的开发。例如,在制药行业,人工智能可以缩短药物研发时间,从而更快地将新药推向市场。 汉诺威工业展:通往未来的桥梁 汉诺威工业展不仅是技术的展示平台,也是全球工业界交流的中心。超过4000家来自60多个国家的参展商将在展会上展示他们的创新成果。今年的展会预计将吸引超过13万名观众,与2023和2024年的参观人数相当。 对于德国工业而言,2025年可能是决定性的一年。人工智能的广泛应用可能标志着工业4.0的新阶段,即通过数字化和智能化实现更高效、更可持续的生产方式。正如微软德国公司总经理艾格尼丝·赫夫特伯格(Agnes Heftberger)所言:“人工智能已走出试验阶段,正在工业中大规模应用。” 结语 汉诺威工业展2025将是人工智能在工业中全面展示其潜力的一年。从优化生产到推动可持续发展,人工智能正在改变工业的面貌。对于企业来说,这既是挑战也是机遇——抓住这一趋势的企业将在未来占据领先地位。 (资讯:德国商报;图片:根据现场照片豆包AI再次生成)

8 个月前
人工智能是汉诺威工业展上的主导主题 微软正在推出创新助手,旨在显著简化工厂的工作流程。在近日开幕的2025汉诺威工业博览会上,微软展示了可广泛应用于工业领域的具有人工智能的创新虚拟助手。该软件公司在此次展会上展示的新产品之一是“工厂运营代理”(Factory Operations Agent)。 据该公司介绍,这是一个人工智能助手,旨在优化工厂车间的流程。例如,该解决方案使工人能够通过使用自然语言查询来分析机器的数据。 “负责任的经理”将能够优化制造流程。人工智能助手还可以比以前更轻松地识别错误来源并解决问题。 微软德国公司董事总经理阿格尼丝·赫夫伯格在汉诺威工业博览会开幕式上表示,人工智能已经走出了测试和实验阶段,正在工业领域得到广泛应用。 “我们必须毫不犹豫地引入人工智能,否则德国将在国际竞争中落后。我们必须让数据宝藏为人工智能所用。” 德国人工智能已经存在 根据德国数字协会Bitkom的一项代表性调查,42%的德国工业企业已经在生产中使用人工智能,另有三分之一(35%)有相应计划。其中包括机器的监控、机器人和车辆的控制以及能源消耗的优化:这项调查是在德国 552 家拥有 100 名或更多员工的工业制造公司中进行的。82%的公司认同人工智能的使用对于德国工业的竞争力至关重要。 然而,近一半(46%)的人认为德国工业界可能会错过人工智能革命。微软与谷歌、Meta、亚马逊并列成为全球领先的人工智能系统提供商,部分原因是微软首席执行官萨蒂亚·纳德拉早期投资数十亿美元与加州人工智能初创公司OpenAI及其开发的聊天机器人ChatGPT进行全面合作。 (资讯来源: tagesschau.de)

8 个月前
谷歌大模型与人脑语言处理机制研究由谷歌研究院与普林斯顿大学、纽约大学等合作开展。3 月上旬,谷歌的研究成果表明大模型竟意外对应人脑语言处理机制。他们将真实对话中的人脑活动与语音到文本 LLM 的内部嵌入进行比较,发现两者在线性相关关系上表现显著,如语言理解顺序(语音到词义)、生成顺序(计划、发音、听到自己声音)以及上下文预测单词等方面都有惊人的一致性 研究方法:将真实对话中的人脑活动与语音到文本LLM的内部嵌入进行比较。使用皮层电图记录参与者在开放式真实对话时语音生成和理解过程中的神经信号,同时从Whisper中提取低级声学、中级语音和上下文单词嵌入,开发编码模型将这些嵌入词线性映射到大脑活动上。 具体发现 语言理解与生成顺序:在语言理解过程中,首先是语音嵌入预测沿颞上回(STG)的语音区域的皮层活动,几百毫秒后,语言嵌入预测布罗卡区(位于额下回;IFG)的皮层活动。在语言生成过程中,顺序则相反,先由语言嵌入预测布罗卡区的皮层活动,几百毫秒后,语音嵌入预测运动皮层(MC)的神经活动,最后,在说话者发音后,语音嵌入预测STG听觉区域的神经活动。这反映了神经处理的顺序,即先在语言区计划说什么,然后在运动区决定如何发音,最后在感知语音区监测说了什么。 神经活动与嵌入的关系:对于听到或说出的每个单词,从语音到文本模型中提取语音嵌入和基于单词的语言嵌入,通过估计线性变换,可以根据这些嵌入预测每次对话中每个单词的大脑神经信号。全脑分析的定量结果显示,在语音生成和语音理解过程中,不同脑区的神经活动与语音嵌入和语言嵌入的峰值存在特定的先后顺序和对应关系。 “软层次”概念:尽管大模型在并行层中处理单词,人类大脑以串行方式处理它们,但反映了类似的统计规律。大脑中较低级别的声学处理和较高级别的语义处理部分重叠,即存在“软层次”概念。例如,像IFG这样的语言区域不仅处理单词级别的语义和句法信息,也捕捉较低级别的听觉特征;而像STG这样的低阶语音区域在优先处理声学和音素的同时,也能捕捉单词级别的信息。 以往相关研究成果 2022年发表在《自然神经科学》上的论文显示,听者大脑的语言区域会尝试在下一个单词说出之前对其进行预测,且在单词发音前对预测的信心会改变在单词发音后的惊讶程度(预测误差),证明了自回归语言模型与人脑共有的起始前预测、起始后惊讶和基于嵌入的上下文表征等基本计算原理。 发表在《自然通讯》的论文发现,大模型的嵌入空间几何图形所捕捉到的自然语言中单词之间的关系,与大脑在语言区诱导的表征(即大脑嵌入)的几何图形一致。 后续研究还发现,虽然跨层非线性变换在LLMs和人脑语言区中相似,但实现方式不同。Transformer架构可同时处理成百上千个单词,而人脑语言区似乎是按顺序、逐字、循环和时间来分析语言。 总之,该研究表明,语音到文本模型嵌入为理解自然对话过程中语言处理的神经基础提供了一个连贯的框架,尽管大模型与人脑在底层神经回路架构上存在明显不同,但在处理自然语言时有着一些相似的计算原则。

8 个月前
2025 年 3 月 12 日,清华大学 NLP 实验室联手中南大学等提出 APB 序列并行推理框架,可解决长上下文远距离语义依赖问题,在 128K 文本上比 Flash Attention 快约 10 倍。
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI