北京苹芯科技有限公司创立于 2021 年 2 月,是一家智能计算架构的革新者,致力于通过创新的存算一体解决方案,为 AI 的广泛应用提供技术动力。
公司专注于 AI 芯片存内计算技术的研究与应用。其团队核心成员由来自清华大学、上海交通大学、北京大学、北京航空航天大学、新竹清华大学等国内外知名院校的硕士、博士及重点实验室科研人才组成。
苹芯科技已申请海内外专利 40 余项。2021 年 9 月 7 日,该公司基于 SRAM 架构的存内计算加速器 S200 测试成功,并发表于素有“固态电路领域奥林匹克”之称的芯片顶会 ISSCC 2022,“首次将商用存内计算带入 28nm 时代”。2024 年 8 月 8 日,苹芯科技在北京发布了基于存算一体的 28nm 及 22nm 节点的 PIMCHIP-N300 存算一体 NPU 和 PIMCHIP-S300 多模态智能感知芯片,这是中国首颗可商用量产、产品级的端侧 28nm 存算一体 AI 芯片。
PIMCHIP-S300 系列芯片是一种高能效、小面积、低功耗且低成本的 AI 芯片。它集成轻量级 MCU 处理器,能够进行实时控制和调度,并支持音视频及多传感器接入,实现多模态融合感知。内置先进的数字 PIM 单元和自研异构架构,具备超低功耗唤醒、VAD、语音识别、运动监测和视觉识别等功能,能在特定计算任务中节约高达 90%的能耗,其计算核心的能效比达到 27TOPS/W。通过“零搬运”数据处理机制显著提升运算效率同时降低能耗,可用于智能可穿戴设备、具身智能、AI 大模型等领域。
PIMCHIP-N300 则是苹芯科技自主研发的存算一体芯片。
苹芯科技联合创始人兼 CEO 杨越毕业于清华大学自动化系,已获得加拿大多伦多大学计算机工程系博士学位,侧重存储相关技术以及软件方向。存内计算的英文是“processing in memory”,缩写为 PIM,苹芯科技的英文名“Pimchip”便由此而来。
公司的产品可应用于多个领域,如智能可穿戴设备、智慧生活(家庭安防、智慧家电、智能门禁、黑/白名单等)、智慧农业(环境检测、温度控制、数据整合、作物监测等)、智慧工业(全天候感知、智能分析、故障监测、降本增效等)。目前苹芯科技已与国内外电子类头部企业等领域客户展开合作,为其提供存内计算技术的一站式解决方案。
在存算一体的发展历程中,英伟达、微软、三星等国际巨头于 2017 年起开始提出存算一体原型,存算一体芯片企业开始涌现。国内除了大厂,初创企业大多聚焦在存内计算领域,面向不同的应用场景。苹芯科技则更多专注于物联网、可穿戴设备、智能家居等场景。
其联合创始人陈怡然是杜克大学电子与计算机工程系正教授、IEEE/ACM Fellow,在新型存储器及人工智能(AI)芯片领域有深厚造诣。另一联合创始人章尧君、许振隆也均有丰富的相关行业经验。
14 天前
华为昇腾推出的Atlas 900 SuperCluster成为国产AI算力的重要突破,标志着华为在超大规模AI训练集群领域的领先地位。 1. 技术突破与性能表现 超大规模算力支持:Atlas 900 SuperCluster 采用创新的超节点架构,支持超万亿参数大模型训练,单集群可管理数十万张昇腾AI加速卡(如昇腾910B),并实现高可用性设计,包括超高速互联、高效液冷散热和瞬时爆发供电。 性能对标英伟达A100:实测数据显示,昇腾AI集群在训练Meta Llama、BloomGPT等模型时,效率可达英伟达A100的1.1倍,并在部分场景实现10倍领先于其他国产方案。 国产化算力标杆:科大讯飞等企业已采用昇腾万卡集群,训练效率达到英伟达A100的0.8~1.2倍,证明其在国产大模型训练中的竞争力。 2. 架构与生态创新 全栈自主可控:从硬件(昇腾芯片、鲲鹏CPU)、架构(达芬奇架构)、软件(MindSpore框架)到开发工具(CANN异构计算),华为构建了完整的AI计算产业链。 昇腾910B芯片升级:相比前代昇腾910,910B在FP32性能上显著提升,支持多NPU模组互联,提供更高带宽和算力密度,进一步缩小与英伟达高端GPU的差距。 生态挑战与机遇:尽管昇腾算力已对标英伟达,但CUDA生态的成熟度仍是竞争短板。华为通过开源MindSpore、适配主流框架(如PyTorch、TensorFlow)及开发者扶持计划(如15亿美元生态投入)加速生态建设。 华为Atlas 900 SuperCluster的推出,不仅提升了国产AI集群的竞争力,也为全球AI算力格局注入了新变量。随着生态完善,昇腾有望在AI训练与推理市场占据更关键地位。 (根据资讯整理)
4 个月前
中美 AI 竞争已进入白热化阶段,技术差距的缩小、数据瓶颈的突破以及地缘政治的影响将成为未来 AI 发展的关键因素。
4 个月前
中国政府对美国半导体巨头NVIDIA采取了一系列反制措施,这不仅直接冲击了NVIDIA在中国市场的业务,也引发了市场对人工智能(AI)领域领军企业NVIDIA繁荣时代是否即将结束的广泛担忧。 中国的反击措施包括但不限于加强对外国半导体技术的出口限制、加大对本土半导体产业的财政和政策支持,以及推动国内企业在高端芯片技术领域的自主研发。这些措施的核心目的是减少对外国技术的依赖,特别是在关键的AI和高性能计算领域。 作为全球最大的AI芯片供应商之一,NVIDIA在中国市场拥有显著的份额。中国不仅是NVIDIA产品的重要销售市场,也是其研发和创新的重要基地之一。然而,随着中国政府政策的转向,NVIDIA在这一关键市场的前景变得不确定。 分析师指出,中国的这一系列举措可能会导致NVIDIA在中国的收入显著下降,从而对其整体财务表现产生负面影响。此外,这也可能加速中国本土半导体企业的崛起,如中芯国际和紫光国微等,这些企业正致力于在高端芯片领域与NVIDIA竞争。长远来看,这种竞争可能会挑战NVIDIA在全球AI芯片市场的领导地位。 市场对这一消息的反应迅速而强烈。NVIDIA的股票在消息公布后迅速下跌,跌幅超过了5%,投资者对于NVIDIA未来在中国市场的前景以及整个AI行业的发展趋势感到不确定。一些投资者甚至开始重新评估其在NVIDIA股票上的投资组合,担心这一事件可能是一个更广泛市场动荡的前兆。 这一事件标志着中美在高科技领域竞争的加剧,特别是在关键的半导体和人工智能技术领域。双方的政策博弈不仅影响到企业的商业运营,也可能对全球技术发展和产业格局产生深远影响。市场和业界都在密切关注接下来的发展,以评估这些政策变化对NVIDIA和整个AI行业的长期影响。 中国的反击措施使得NVIDIA股票受压,市场对其繁荣时代是否结束产生担忧。这一事件反映了中美在高科技领域的激烈竞争,也可能预示着全球半导体和AI产业格局的重大调整。未来,随着双方政策的进一步演变和市场的自我调整,NVIDIA及其竞争对手将面临新的挑战和机遇。投资者和企业都需要保持高度警惕,密切关注相关动态,以做出明智的决策。 新闻来源:MSN德语财经频道
4 个月前
Google宣布了其新型量子计算芯片Willow,这是在量子计算领域长达十年的征程中迈出的重要一步!
7 个月前
海光处理器属于GPGPU架构,通用且场景支撑能力强,这是国内唯一具备全精度浮点数据计算能力的厂商。
8 个月前
每秒1832token极限推理速度
8 个月前
观察者网今日发表了一篇题为《中企这么做,正让美国限制变得毫无意义》的文章。 这篇文章介绍了中国公司如何在美方限制先进芯片的情况下开发自己的AI技术。它讨论了这些公司提高效率和创建更小、更专业的模型的方式。 该文章还强调了中国公司开发的AI应用数量不断增长。一些重要观点是,中国在AI专利申请方面处于世界领先地位,中国公司正在开发自己的芯片以减少对外国技术的依赖。 文章详细介绍了中国公司在AI领域取得的进展,包括: 开发了新的训练方法,例如使用更少的数据和更小的模型,以提高效率。 开发了自己的AI芯片,以减少对外国技术的依赖。 在应用AI到现实世界问题方面处于领先地位。 中国在AI领域取得的进展是其科技实力不断增强的体现。
8 个月前
北京苹芯科技有限公司是一家智能计算架构的革新者,致力于通过创新的存算一体解决方案,为 AI 的广泛应用提供技术动力。
8 个月前
2024年8月8日,苹芯科技发布了基于存算一体技术的28nm及22nm节点的PIMCHIP-N300存算一体NPU和PIMCHIP-S300多模态智能感知芯片,成为中国首颗能量产的端侧28nm存算一体AI芯片。 此次发布的两款芯片可支持智能可穿戴设备、智能安防、具身智能、AI大模型、健康数据分析等领域,尤其支持AI与大模型推理加速等各类计算任务场景。 PIMCHIP-S300多模态智能感知芯片基于自研异构架构所研制,实现了数据处理的“零搬运”,在大幅提升运算效率的同时,显著降低能耗,将应用于智能可穿戴设备、智能安防、具身智能、AI大模型、健康数据分析等领域的计算效率提升。 PIMCHIP-N300则是专为机器学习和人工智能领域设计的新一代存算一体神经网络处理单元(NPU),它能够以更高的效率、更低的能耗处理人工神经网络等机器学习算法和深度学习模型。 存算一体芯片是一种将存储和计算功能融合在同一个芯片上的技术架构。该芯片的成功发布标志着中国在存算一体AI芯片领域取得了重要突破,有望为人工智能技术的发展和应用带来新的机遇。 资讯来源:苹芯科技
8 个月前
8月5日消息,据路透社报道,英伟达新款人工智能芯片blackwell的发布可能因设计缺陷而推迟三个月或更长时间。 这将影响包括metaplatforms、谷歌和微软等已预订了价值数百亿美元该芯片的客户。英伟达发言人虽表示hopper的需求强劲以及blackwell的广泛采样工作已开始等,但未直接回应推迟原因和时间表。