自 1 月份 DeepSeek 推出 R1 推理模型后,欧洲包括汇丰银行等主要金融机构一直在将其与其他 AI 模型一起测试,而美国银行拒绝使用。
1 个月前
DeepSeek FlashMLA是国产AI公司DeepSeek于2025年2月24日开源的首个代码库。这里的MLA是 Multi-Head Latent Attention 的缩写,指的是多头潜在注
2 个月前
随着人工智能技术的飞速发展,像DeepSeek这样的大模型正在以前所未有的方式改变我们的生活、工作和社会。这些先进的AI工具不仅服务于企业和专家,也为普通人提供了前所未有的机会,让他们能够突破传统限制
2 个月前
随着DeepSeek-R1的出现,相较于以往的大模型,带来了更先进的语义理解和数据处理能力,AI技术迎来了新的里程碑。喆塔科技作为国产领先的数智化平台领跑者,其“喆学大模型”通过融合行业Know-H
2 个月前
DeepSeek提出的原生稀疏注意力机制(Native Sparse Attention, NSA)是一种针对Transformer模型注意力计算的高效优化技术,旨在降低计算复杂度的同时保持模型性能,
2 个月前
DeepSeek团队近日发布了一篇题为《原生稀疏注意力:硬件对齐且可原生训练的稀疏注意力机制》的技术论文,介绍了他们提出的NSA(Natively Sparse Attention)机制。 NSA结合
2 个月前
结合DeepSeek R1和ChatGPT的合并使用,理论上可以通过互补优势提升整体性能,但实际效果取决于具体实现方式、任务类型及资源优化能力。以下是综合分析: 一、合并使用的潜在优势 任务性
2 个月前
2月10日,清华大学KVCache.AI团队联合趋境科技发布的KTransformers开源项目公布更新:一块24G显存的4090D,就可以在本地运行DeepSeek-R1、V3的671B“满血版”。
2 个月前
SAP宣布集成DeepSeek,对企业管理和工业软件市场的影响在探讨SAP等企业管理软件巨头的发展前景时,我们不得不提到DeepSeek这样的AI大模型。DeepSeek作为新一代的人工智能技术,正在
2 个月前
杭州在AI领域崛起有城市“基因密码”,使得杭州在人工智能技术,特别是语言大模型领域引领全球。
3 个月前