DeepSeek-OCR是DeepSeek-AI团队于2025年10月20日开源的一项突破性OCR模型,它通过“上下文光学压缩”技术,为OCR任务及大语言模型长上下文处理提供了全新解决方案。

10 天前
LoRA(Low-Rank Adaptation)是一种对大模型进行“轻量级微调”的技术。

13 天前
Gemini 3 标志着AI模型从“增量优化”向“范式转变”的重大跃进。

1 个月前
恒图科技是一家专注于数字创意视觉内容创作与人工智能技术融合的文化科技型企业。恒图科技(成都恒图科技有限责任公司)在数字视觉内容创作和人工智能领域具有全球影响力,尤其以其核心产品Fotor而闻名。 这里是公司及业务概览: 类别 详细信息 公司名称 成都恒图科技有限责任公司 成立时间 2009年 创始人/CEO 段江 公司定位 专注于视觉内容创作与人工智能融合创新的科技型企业 核心产品 Fotor (图片处理与设计软件)、Clipfly (AI视频制作平台) 技术核心 HDR(高动态范围图像)技术、生成式人工智能(AIGC) 市场与用户 覆盖全球200多个国家和地区,用户量约7-8亿,绝大部分为海外用户 主要荣誉 2025年福布斯中国人工智能科技企业TOP50、德勤中国高科技高成长50强 🚀 发展历程与核心优势 恒图科技的发展历程,是一部深耕技术、顺势而为的进化史。 技术奠基与出海:公司自成立起就专注于图像处理技术,尤其在HDR(高动态范围图像)技术领域拥有领先的核心专利。早期,团队就做出了一个关键决策:主攻海外市场,打造标准化的产品。其产品因操作简单、效果专业,迅速获得了海外用户的认可,BBC曾将Fotor誉为“Photoshop的后继者”。 拥抱AI浪潮:当生成式人工智能(AIGC)兴起时,恒图科技展现了强大的技术敏锐度和快速反应能力。他们在2022年10月就为Fotor上线了AI功能,并逐步将产品从单一的图片编辑,拓展为涵盖AI文生图、AI文生视频等超100种功能的一站式AI视觉内容创作平台。这不仅吸引了更多用户,也让他们成为国内为数不多在该领域实现规模化盈利的企业。 强大的技术合作:为了支撑全球海量用户的创作需求,恒图科技与火山引擎展开了深度合作。火山引擎为其提供了强大的AI算力保障,支撑了恒图超过80%的推理和训练任务。这一合作显著提升了其AI视频生成的能力与质量,帮助恒图实现了用户付费转化率提升23%、AI人均视频生成次数提升12%的亮眼成绩。 🛠️ 主要产品与应用 恒图科技的产品矩阵紧密围绕“让创作更简单”这一核心目标展开。 Fotor:这是恒图科技的旗舰产品。它不仅仅是一个修图工具,更是一个覆盖网页端、移动端和桌面端的一体化设计平台。通过引入AI技术,Fotor极大地降低了专业设计的门槛,让没有任何设计背景的普通用户也能轻松制作海报、社交媒体图片等。 Clipfly:这是恒图科技推出的一站式AI视频制作平台。它集成了文生视频、图生视频、自动字幕、视频编辑等功能,让一个人、一台电脑就能快速完成具有电影质感的视频创作,极大地降低了视频创作的成本和门槛。该产品在文旅宣传、内容创作等领域有很好的应用前景。 🌍 行业影响与未来前景 恒图科技的成功,不仅在于商业上的成就,更在于其带来的行业变革与文化价值。 推动创作“智能化”:恒图科技将自己定位为数字创意创作“智能化”的推动者。如果说Photoshop代表了“专业化”,Canva代表了“平民化”,那么Fotor的目标就是通过AI技术,将视觉内容创作带入“全民皆可为的智能化时代”。 架起文化出海桥梁:恒图科技的产品拥有庞大的海外用户群,这使其成为中国文化出海的一个独特渠道。通过Fotor、Clipfly等产品,中国传统的文化元素、IP可以以图像、视频等更易被接受的形式传播到全球,促进跨文化的交流与理解。 ( 图片来源:fotor.com.cn )

1 个月前
DeepSeek OCR 介绍 DeepSeek OCR 是由中国 AI 公司 DeepSeek AI 于 2025 年 10 月 20 日发布的开源视觉语言模型(VLM),旨在探索“光学上下文压缩”(Contexts Optical Compression)的创新范式。它不是传统的 OCR(光学字符识别)工具,而是将视觉编码视为文本信息的压缩层,帮助大型语言模型(LLM)更高效地处理长文档、图像和多模态数据。 该模型的灵感来源于“一图胜千言”的理念,通过将文本转化为视觉表示,实现显著的令牌(token)减少,同时保持高准确性。 核心创新与架构 DeepSeek OCR 的核心思想是将文本作为图像处理,从而实现高效压缩: 视觉-文本压缩:传统 LLM 处理 1000 字文档可能需要数千个文本令牌,而 DeepSeek OCR 通过视觉编码器将图像压缩为更少的视觉令牌(可减少 7-20 倍),然后解码回文本。测试显示,它能保留 97% 的原始信息。 双阶段架构: DeepEncoder:视觉编码器,负责图像处理,包括文档、图表、化学分子和简单几何图形。它基于先进的视觉模型(如 Vary、GOT-OCR2.0 和 PaddleOCR 的灵感),高效提取特征。 DeepSeek-3B-MoE:解码器,使用混合专家模型(MoE,激活参数仅 5.7 亿),生成文本输出。整个模型大小约为 6.6 GB,运行速度快、内存占用低。 多功能扩展:除了基本 OCR,它支持解析图表(生成 Markdown 表格和图表)、化学公式、几何图形,甚至自然图像。深解析模式(Deep Parsing Mode)特别适用于金融图表等结构化数据。 该模型在 OmniDocBench 等基准测试中达到了端到端模型的 SOTA(最先进)性能,优于 MinerU 2.0 和 GOT-OCR2.0 等更重的模型,同时视觉令牌使用最少。 它还支持 vLLM(虚拟 LLM 推理引擎),便于批量处理。 优势与应用场景 效率提升:减少计算成本,适合处理长上下文(如聊天历史或长文档)。例如,将旧对话“低分辨率”存储为图像,模拟人类记忆衰减机制。 实用性:在 OCR 之外,它能处理复杂视觉任务,如从图像中提取结构化数据,而非简单文本复制。 开源与易用:模型托管在 Hugging Face(deepseek-ai/DeepSeek-OCR),支持 PyTorch 和 CUDA。GitHub 仓库提供完整代码和示例。 局限性:作为实验性模型,对简单矢量图形解析仍有挑战;输出有时可能出现幻觉(如中文符号混入英文响应)。 如何使用(快速入门) 安装依赖:克隆 GitHub 仓库(git clone https://github.com/deepseek-ai/DeepSeek-OCR.git),安装 Transformers 和 vLLM。 Python 示例(使用 Hugging Face): from transformers import AutoModel, AutoTokenizer from PIL import Image import torch model_name = 'deepseek-ai/DeepSeek-OCR' tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) model = AutoModel.from_pretrained(model_name, trust_remote_code=True, torch_dtype=torch.bfloat16).cuda().eval() # 加载图像 image = Image.open("your_image.png").convert("RGB") # 提示(prompt) prompt = "<image>\nFree OCR." # 或其他任务提示,如 "<image>\nParse chart." inputs = tokenizer(prompt, return_tensors="pt").to(model.device) inputs["image"] = image # 添加图像 with torch.no_grad(): outputs = model.generate(**inputs, max_new_tokens=512) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) 这将从图像中提取并输出文本。 DeepSeek OCR 代表了 OCR 从“文本提取”向“多模态压缩”转型的趋势,对于 AI 研究者和开发者来说,是一个值得关注的开源工具。

6 个月前
将 DeepSeek 的深度推理、代码能力与 ChatGPT 的语言创造力、通用对话能力相结合,设计一个名为 DeepGPT 的 AI 工具,这确实是一个极具潜力的构想。它代表了一种“强强联合”的思路,旨在创造一个更全面、更强大的 AI 助手。 DeepGPT 的核心设计理念 双引擎协同架构: DeepSeek 引擎: 专注于深度理解、逻辑推理、复杂问题拆解、代码生成与解释、数学计算、事实核查、长文档处理(128K上下文)。它是“大脑”的分析中心和事实库。 ChatGPT 引擎: 专注于自然流畅的对话、创意内容生成(写作、诗歌、剧本)、多语言能力、情感理解、用户意图捕捉、通用知识问答、多模态(未来整合图像/语音等)的接口。它是“大脑”的表达中心和交互界面。 智能路由与融合层: 这是 DeepGPT 的“智能调度中心”。它根据用户查询的性质、复杂度、所需技能,动态决定: 将任务完全交给更适合的引擎处理(如:复杂代码问题 -> DeepSeek;写一首情诗 -> ChatGPT)。 将任务拆解,分发给两个引擎处理各自擅长的部分,然后融合结果(如:要求写一份包含市场数据分析的商业计划书 -> DeepSeek 处理数据分析和预测部分,ChatGPT 负责撰写叙述性内容和润色)。 让两个引擎分别处理同一问题,提供互补视角或进行“交叉验证”,然后由融合层生成最全面/可靠的答案。 强化优势,弥补短板: 利用 DeepSeek 弥补 ChatGPT 可能在复杂逻辑推理、精确代码生成、处理超长文档方面的不足。 利用 ChatGPT 弥补 DeepSeek 可能在对话自然度、创意写作多样性、情感表达方面的不足。 DeepGPT 的核心功能与应用领域 基于双引擎协同架构,DeepGPT 将成为一个超级智能工作伙伴和创意加速器,应用极其广泛: 研究与学术: 深度文献综述: 利用 DeepSeek 处理海量论文(128K上下文),提取关键论点、发现研究空白、总结趋势;ChatGPT 帮助撰写清晰的研究综述草稿。 复杂数据分析与解释: DeepSeek 进行统计分析、建模、代码实现;ChatGPT 将结果转化为易于理解的叙述,撰写报告。 假设生成与实验设计: 双引擎协作,基于现有知识进行推理(DeepSeek)并提出新颖、可行的研究思路和实验方案(ChatGPT)。 论文写作与润色: DeepSeek 确保逻辑严谨、数据准确、符合学术规范;ChatGPT 提升语言流畅度、可读性和表达多样性。 软件开发与工程: 全栈开发助手: DeepSeek 精通代码生成(多种语言)、调试、算法实现、系统设计;ChatGPT 解释代码逻辑、生成文档注释、编写用户手册、与产品经理沟通需求。 遗留代码理解与重构: DeepSeek 深入分析复杂/老旧代码库;ChatGPT 生成重构建议的说明文档。 自动化测试脚本: DeepSeek 编写精确、高效的测试用例;ChatGPT 描述测试场景和预期结果。 内容创作与营销: 高质量长文创作: ChatGPT 负责创意构思、初稿撰写、不同风格的文本生成;DeepSeek 负责事实核查、数据支撑、逻辑结构优化、SEO 关键词策略分析。 营销策略制定: DeepSeek 分析市场数据、用户行为、竞品信息;ChatGPT 生成吸引人的广告文案、社交媒体帖子、营销邮件主题。 剧本/小说创作: ChatGPT 负责情节构思、角色对话、场景描写;DeepSeek 确保情节逻辑自洽、世界观设定合理、历史/科技细节准确。 商业分析与咨询: 综合报告生成: DeepSeek 处理财务数据、市场预测模型、风险评估;ChatGPT 整合分析结果,撰写结构清晰、论点有力、面向不同受众(高管/投资者)的报告和演示文稿。 战略规划: 双引擎协作进行 SWOT 分析、情景规划、机会识别(DeepSeek 的数据推理 + ChatGPT 的创新发散)。 客户洞察: 分析大量用户反馈、评论(DeepSeek),提炼情感倾向和关键诉求(ChatGPT),形成洞察报告。 教育与学习: 个性化辅导: DeepSeek 精准解答数学、物理、编程等难题,提供严谨步骤;ChatGPT 用生动比喻、不同角度解释概念,鼓励学生,生成练习题。 学习材料制作: 根据知识点(DeepSeek 确保准确性和深度)生成不同难度和风格的讲解、示例、测验题(ChatGPT)。 研究性学习支持: 引导学生提出问题、查找资料(DeepSeek)、组织思路、撰写学习报告(ChatGPT)。 法律与合规: 合同/法律文件审阅: DeepSeek 利用长上下文处理冗长合同,识别关键条款、潜在风险点、逻辑矛盾;ChatGPT 生成摘要、风险提示报告、用更平实语言解释条款。 法律研究: 快速查找相关法条、判例(DeepSeek),并总结要点、分析适用性(ChatGPT)。 个人效率与知识管理: 智能信息处理: 阅读并总结超长的邮件、报告、网页内容(DeepSeek),提炼行动项(ChatGPT)。 决策支持: 针对个人选择(如职业规划、投资决策),DeepSeek 提供理性分析和数据支撑,ChatGPT 帮助理清个人价值观和偏好,综合给出建议。 个性化知识库构建: 用户输入笔记、收藏文章等,DeepGPT 自动整理、关联、提炼要点(双引擎协作),方便查询和复习。 DeepGPT 的关键特性与优势 更可靠的知识与推理: DeepSeek 的深度能力作为基础,减少“幻觉”,提高答案的可信度。 更自然的交互与表达: ChatGPT 的能力确保对话流畅、易懂、富有同理心。 处理超复杂任务: 双引擎协同可以处理单一模型难以胜任的、需要深度分析+创意表达+长上下文的任务。 灵活性与适应性: 智能路由确保用户始终获得最合适的“技能组合”来解决问题。 生产力倍增器: 在专业领域(研究、开发、分析、写作)显著提升效率和质量。 可能的挑战与实现考虑 技术复杂性: 双模型协同、路由决策、结果融合在工程实现上有较高难度,需要强大的基础设施和算法优化。 成本: 同时运行/调用两个顶级大模型成本高昂。 延迟: 协同处理可能比单一模型响应慢,需要优化流程。 模型一致性: 确保两个模型的知识库和价值观尽可能对齐,避免输出矛盾。 用户界面: 需要设计直观的界面,让用户理解何时、如何利用了双引擎的优势(例如,提供“思考过程”的透明度选项)。 结论 DeepGPT 代表了下一代 AI 助手的方向:不再是单一功能的聊天机器人,而是一个集深度分析能力、强大创造力、自然交互能力于一体的认知增强伙伴。它能够渗透到知识工作的核心环节,在科研、开发、创作、分析、教育、法律等诸多领域带来革命性的效率提升和可能性拓展。它将 DeepSeek 的“硬实力”(逻辑、代码、长文、精确)与 ChatGPT 的“软实力”(语言、创意、对话、通用)完美融合,目标是成为人类在复杂智力挑战中最得力的助手。 这样的工具一旦成熟落地,其影响力将远超现有的单一模型,真正开启“AI超级助手”的新时代。

7 个月前
📢 OpenAI即将发布GPT-4.1,多模态能力再升级! 据多家科技媒体报道,OpenAI计划于下周(2025年4月中旬)推出GPT-4.1,作为GPT-4o的升级版本,进一步强化多模态推理能力,并推出轻量级mini和nano版本。 🔍 关键升级点 更强的多模态处理 GPT-4.1将优化对文本、音频、图像的实时处理能力,提升跨模态交互的流畅度。 相比GPT-4o,新模型在复杂推理任务(如视频理解、语音合成等)上表现更优。 轻量化版本(mini & nano) GPT-4.1 mini 和 nano 将面向不同应用场景,降低计算资源需求,适合移动端或嵌入式设备。 配套新模型(o3 & o4 mini) OpenAI还将推出o3推理模型(满血版)和o4 mini,优化特定任务性能。 部分代码已在ChatGPT网页端被发现,表明发布临近。 ⏳ 发布时间与不确定性 原定下周发布,但OpenAI CEO Sam Altman 曾预警可能因算力限制调整计划。 同期,ChatGPT已升级长期记忆功能,可回顾用户历史对话,提供个性化服务(Plus/Pro用户已开放)。 🌍 行业影响 谷歌(Gemini AI)和微软(Copilot)近期也强化了AI记忆功能,竞争加剧。 GPT-4.1可能进一步巩固OpenAI在多模态AI领域的领先地位,推动商业应用(如智能客服、内容创作等)。 📌 总结:GPT-4.1的发布标志着OpenAI在多模态AI上的又一次突破,但具体性能提升和落地效果仍需观察。我们将持续关注官方更新! (综合自腾讯新闻、The Verge、搜狐等)

8 个月前
谷歌大模型与人脑语言处理机制研究由谷歌研究院与普林斯顿大学、纽约大学等合作开展。3 月上旬,谷歌的研究成果表明大模型竟意外对应人脑语言处理机制。他们将真实对话中的人脑活动与语音到文本 LLM 的内部嵌入进行比较,发现两者在线性相关关系上表现显著,如语言理解顺序(语音到词义)、生成顺序(计划、发音、听到自己声音)以及上下文预测单词等方面都有惊人的一致性 研究方法:将真实对话中的人脑活动与语音到文本LLM的内部嵌入进行比较。使用皮层电图记录参与者在开放式真实对话时语音生成和理解过程中的神经信号,同时从Whisper中提取低级声学、中级语音和上下文单词嵌入,开发编码模型将这些嵌入词线性映射到大脑活动上。 具体发现 语言理解与生成顺序:在语言理解过程中,首先是语音嵌入预测沿颞上回(STG)的语音区域的皮层活动,几百毫秒后,语言嵌入预测布罗卡区(位于额下回;IFG)的皮层活动。在语言生成过程中,顺序则相反,先由语言嵌入预测布罗卡区的皮层活动,几百毫秒后,语音嵌入预测运动皮层(MC)的神经活动,最后,在说话者发音后,语音嵌入预测STG听觉区域的神经活动。这反映了神经处理的顺序,即先在语言区计划说什么,然后在运动区决定如何发音,最后在感知语音区监测说了什么。 神经活动与嵌入的关系:对于听到或说出的每个单词,从语音到文本模型中提取语音嵌入和基于单词的语言嵌入,通过估计线性变换,可以根据这些嵌入预测每次对话中每个单词的大脑神经信号。全脑分析的定量结果显示,在语音生成和语音理解过程中,不同脑区的神经活动与语音嵌入和语言嵌入的峰值存在特定的先后顺序和对应关系。 “软层次”概念:尽管大模型在并行层中处理单词,人类大脑以串行方式处理它们,但反映了类似的统计规律。大脑中较低级别的声学处理和较高级别的语义处理部分重叠,即存在“软层次”概念。例如,像IFG这样的语言区域不仅处理单词级别的语义和句法信息,也捕捉较低级别的听觉特征;而像STG这样的低阶语音区域在优先处理声学和音素的同时,也能捕捉单词级别的信息。 以往相关研究成果 2022年发表在《自然神经科学》上的论文显示,听者大脑的语言区域会尝试在下一个单词说出之前对其进行预测,且在单词发音前对预测的信心会改变在单词发音后的惊讶程度(预测误差),证明了自回归语言模型与人脑共有的起始前预测、起始后惊讶和基于嵌入的上下文表征等基本计算原理。 发表在《自然通讯》的论文发现,大模型的嵌入空间几何图形所捕捉到的自然语言中单词之间的关系,与大脑在语言区诱导的表征(即大脑嵌入)的几何图形一致。 后续研究还发现,虽然跨层非线性变换在LLMs和人脑语言区中相似,但实现方式不同。Transformer架构可同时处理成百上千个单词,而人脑语言区似乎是按顺序、逐字、循环和时间来分析语言。 总之,该研究表明,语音到文本模型嵌入为理解自然对话过程中语言处理的神经基础提供了一个连贯的框架,尽管大模型与人脑在底层神经回路架构上存在明显不同,但在处理自然语言时有着一些相似的计算原则。

8 个月前
自 1 月份 DeepSeek 推出 R1 推理模型后,欧洲包括汇丰银行等主要金融机构一直在将其与其他 AI 模型一起测试,而美国银行拒绝使用。
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI