RAG 是 retrieval-augmented generation 的缩写,即检索增强生成,它是一种结合了检索和生成技术的深度学习模型,常用于自然语言处理任务,如文本生成、问答系统等。RAG 模型的核心思想是通过检索模块从外部知识库或大规模语料库中获取相关信息,然后将这些信息提供给生成模块,以生成更加准确和有用的回答或文本。
在人工智能构建知识库领域,RAG可以分成这三种 Naive RAG、Advanced RAG 和 Agentic RAG ,其特点分别如下:
数据获取方式:
知识表示与存储:
检索与生成过程:
数据获取方式:
知识表示与存储:
检索与生成过程:
数据获取方式:
知识表示与存储:
检索与生成过程:

3 天前
在2026年开发AI产品时,搭建一个生产级(production-grade)RAG系统已经不再是“简单接个向量数据库就行”,而是需要系统性工程化思维。以下是从0到1再到生产可用的完整路径,按实际优先级和踩坑顺序组织。 一、生产级RAG ≠ Demo级RAG 的本质区别(2025-2026共识) 维度 Demo级(常见教程) 生产级(真正能上线赚钱) 为什么重要 文档量 几MB ~ 几百页 几万 ~ 几百万文档 / 多模态 / 每天增量更新 决定了分块、索引、召回策略完全不同 召回准确率 60-75% 目标88-95%+(视场景) 差10%召回率,用户体验天差地别 延迟 2-8秒随便 <1.5秒(p95),理想<800ms 用户流失率与延迟呈指数关系 幻觉控制 看运气 需要多重机制把幻觉率压到<5% 企业客户最怕胡说八道 可维护性 脚本跑一遍就行 需要数据质量pipeline、版本控制、监控告警 半年后没人敢碰代码 成本 不care embedding + LLM + vectorDB 每月几千到几十万刀 直接影响商业模式能否跑通 二、2026年主流生产级RAG搭建完整路径(推荐路线) Phase 0:先别写代码,先做这两件事(很多人跳过直接失败) 明确业务成功标准(最重要一步) 准确率目标:≥88%(RAGAS faithfulness & answer relevancy) 幻觉率:<5% 响应时间:p95 < 2秒(或按产品定位) 支持的文档类型:PDF/Word/Excel/网页/Markdown/扫描件/表格/图片? 更新频率:实时 / 每天 / 每周? 用户问题类型:单轮 / 多轮 / 带表格 / 需要推理? 准备评估集(金标准) 至少200-500条 真实用户问题 + 人工标注的完美答案 后续所有优化都拿这个集子打分 Phase 1:数据摄入与预处理(决定天花板,占60%工作量) 现代顺序(2025-2026主流做法): 文档清洗与质量分级(最被低估的一步) 运行一个轻量文档质量打分模型(或规则+小型LLM) 分三类:Clean / Decent / Garbage Garbage类直接人工干预或低权重处理 结构化解析(别直接喂Unstructured) PDF:用Marker / PyMuPDF + table detection(Marker 2025年后很强) Word/Excel:python-docx / pandas 保留层级:标题 → 段落 → 表格 → 图片说明 → 元数据 高级Chunk策略(2026年最核心差异化点) 策略 Chunk大小 适用场景 召回提升 Fixed-size 512 token 快速验证 baseline Semantic 200-800 主流生产 +15-25% Hierarchical 父子chunk 长文档、合同、手册 +20-35% Proposition-based 小粒度命题 法律/医疗/技术文档 +30%+ 推荐起步组合:Semantic + 父子索引 + 100-200 token重叠 Phase 2:Embedding 与 向量存储(2026主流选型) Embedding模型推荐(2026.2月时点性价比排序): bge-m3 / Snowflake Arctic Embed(开源王者) voyage-3-large / Cohere embed-v4(闭源但效果顶尖) text-embedding-3-large(稳定但已被超越) 向量数据库主流选择: 场景 首选数据库 次选 备注 < 100万向量 Chroma / Qdrant本地 PGVector 开发快 100万-1亿 Qdrant / Milvus Weaviate Qdrant 2025-2026口碑最佳 亿级 + 高并发 Pinecone serverless Zilliz Cloud 省心但贵 极致私有化 pgvector + pgvectorscale Milvus standalone 强烈建议:hybrid search(dense + sparse / BM25)几乎成为2026标配。 Phase 3:检索与后处理(拉开差距的关键层) 现代检索流水线(2026主流): 用户问题 ↓ Query分类与改写(是否需要检索?多意图拆分?) ↓ 多路召回(vector + BM25 + 知识图谱等) ↓ 初筛 top-30~100 ↓ 重排序(Cohere Rerank3 / bge-reranker-v2 / flashrank) ↓ 上下文压缩 / 抽取(LLM summarize top-8) ↓ 最终给LLM的上下文(带清晰source引用) Phase 4:生成与防幻觉 Prompt工程模板(必须有): 强制要求:只用提供的内容回答 / 不知道就说不知道 / 标注来源 结构化输出(JSON)便于下游解析 防幻觉组合拳: Self-Check / Self-RAG Corrective RAG Groundedness check(RAGAS / TruLens) 后置事实核查(小模型或规则) Phase 5:评估、监控、迭代闭环(生产级灵魂) 必须上的指标: Retrieval:Recall@K, MRR, NDCG Generation:Faithfulness, Answer Relevancy, Context Precision/Recall End-to-End:用户打分 / A/B测试 / 业务指标(解决率、CSAT) 推荐工具组合(2026主流): 评估:RAGAS / DeepEval / TruLens / Phoenix 监控:LangSmith / Helicone / Phoenix / PromptLayer Orchestration:LangGraph / LlamaIndex Workflows / Haystack / Flowise(低代码) 三、2026年推荐最小可用生产技术栈(性价比最高) 极简但能上线(适合小团队) 解析 → Marker / LlamaParse 向量化 → bge-m3 或 voyage-3 向量库 → Qdrant (docker) 召回+重排 → Qdrant + bge-reranker-v2 框架 → LlamaIndex 或 LangGraph LLM → DeepSeek-R1 / Qwen2.5-72B-Instruct / Claude-3.5-Sonnet (根据预算) 评估 → RAGAS + 人工golden set 进阶企业级(已验证可支撑十万+文档) 加:混合检索 + 父子索引 + query分解 + 多路召回 + 上下文压缩 + corrective RAG + 在线监控 一句话总结2026年RAG哲学: “70%的效果提升来自于数据质量、切块策略和检索后处理;20%来自embedding和重排序模型;只有10%靠换个更强的LLM。” 先把前70%做好,后面自然水到渠成。 ( Grok )

16 天前
AI Agent 的真正智能,来自于知识获取(RAG) + 协作协议(MCP) + 执行能力(SKILLS)的统一协同,而不是单一大模型孤立输出。

6 个月前
联邦学习(Federated Learning)是一种分布式机器学习技术,旨在解决数据隐私与数据孤岛问题,允许多个参与方(如设备、机构)在不共享原始数据的情况下,协同训练机器学习模型。

6 个月前
大模型的范式(paradigm)是指支撑其设计、训练和应用的核心方法论或框架,反映了其处理问题的基本模式。这一概念可以从多个维度理解,以下是关键要点: 1. 技术范式 自监督学习 大模型的核心训练方式,通过海量无标注数据(如文本、图像)进行预训练,利用掩码语言建模(如BERT)、自回归生成(如GPT)等任务学习通用表示。 规模化(Scaling Laws) 遵循"规模效应":模型参数量、数据量和算力同步扩大时,性能显著提升(如Chinchilla定律)。 Transformer架构 基于自注意力机制(Self-Attention)的模型结构,支持并行计算和长程依赖建模,成为大模型的基础骨架。 2. 功能范式 预训练+微调(Pretrain-Finetune) 先在通用数据上预训练,再针对下游任务微调(如分类、生成)。例如,BERT通过附加任务层适配不同场景。 提示学习(Prompt Learning) 通过设计自然语言提示(Prompt)激发模型潜能,减少微调需求(如GPT-3的few-shot learning)。 多模态统一建模 将文本、图像、视频等映射到统一语义空间(如CLIP、Flamingo),实现跨模态理解与生成。 3. 应用范式 生成式AI(Generative AI) 大模型的核心能力转向生成内容(文本、代码、图像等),如ChatGPT的对话生成、Stable Diffusion的图像合成。 AI即服务(AIaaS) 通过API或开放平台提供模型能力(如OpenAI API),降低技术使用门槛。 智能体(Agent)架构 大模型作为"大脑",结合工具调用(Tool Use)、记忆和规划,实现复杂任务自动化(如AutoGPT)。 4. 生态范式 开源与闭源并存 开源模型(如LLaMA、Stable Diffusion)推动社区创新,闭源模型(如GPT-4)侧重商业化。 数据飞轮效应 用户反馈数据持续优化模型,形成闭环(如ChatGPT基于人类反馈的强化学习RLHF)。 垂直领域适配 通用大模型通过领域适配(如医学、法律)释放专业价值(如Med-PaLM)。 5. 挑战与演进方向 效率问题:模型压缩(如量化、蒸馏)、稀疏化(如Mixture of Experts)。 对齐(Alignment):确保模型行为符合人类价值观(如RLHF技术)。 新架构探索:超越Transformer的潜在方案(如RWKV、Mamba等状态空间模型)。 总结 大模型的范式本质是通过规模化预训练获得通用能力,再通过灵活适配解决多样任务,其发展正从单一语言模型转向多模态、交互式、智能体化的综合系统。这一范式正在重塑AI研发和应用的基本逻辑。

7 个月前
语料数据(Corpus Data)是指用于训练、验证和测试语言模型的大规模结构化或非结构化文本集合。

8 个月前
ChatBI 是一种基于人工智能和自然语言处理技术的商业智能(Business Intelligence, BI)分析工具。与传统的 BI 工具不同,ChatBI 以对话交互为核心,用户可以像与人交流一样,通过自然语言对话来获取数据分析和业务洞察。这种模式大大降低了数据分析的门槛,使非技术用户也能够轻松地进行复杂的数据查询和分析。 核心功能与特点: ChatBI 的主要功能和特点体现在以下几个方面: 自然语言查询: 用户可以像和同事聊天一样,直接用中文或英文输入问题。例如,“去年各地区销售额排名”或者“本月客户流失率是多少?”。系统会自动理解意图,将语言转化为能够在数据库中执行的查询指令。 实时数据分析: ChatBI 能够连接企业的各类数据源(如数据库、Excel、ERP、CRM 等),实现实时的数据检索和分析。用户无需编写 SQL 或自定义脚本,就能得到最新的数据结果。 自动生成可视化报表: 在得到分析结果后,ChatBI 可以自动生成柱状图、折线图、饼图等多种可视化报表,帮助用户更直观地理解和展示数据。 智能洞察与建议: 结合大模型能力,ChatBI 不仅能回答具体数据问题,还能基于数据趋势主动给出业务建议。例如,自动识别异常值、预测业务走势、提醒关键风险点等。 多端集成与协作: ChatBI 支持网页、移动端、微信、钉钉等多平台接入,便于团队协作和信息共享。同时,具备权限管理和数据安全保障。 典型应用场景: ChatBI 在企业数据决策和日常运营中有广泛应用,主要包括: 日常经营分析:让管理层和业务人员随时随地查询销售、库存、利润等核心数据。 客户服务与支持:为客服团队提供快速查询客户信息、订单状态等能力,提高服务效率。 运营监控与预警:自动监控关键指标,及时发现异常,支持自动化报警。 数据驱动决策:辅助市场、财务、人力等部门做出基于数据的战略和战术决策。 技术原理与优势: ChatBI 结合了大语言模型(如 GPT)、语义理解、数据建模、知识图谱等前沿技术。它的显著优势包括: 极大降低了数据分析的技术门槛和沟通成本 提高了数据驱动决策的效率和准确性 促进了企业数据资产的流动和价值释放 未来发展趋势: 随着人工智能和大模型技术的进步,ChatBI 将更加智能化和自动化。例如,未来可能实现更深层的数据洞察、跨多源数据的联动分析、甚至自动提出业务优化建议。ChatBI 也有望成为企业智能办公的重要入口,为各类组织赋能。 总之,ChatBI 让数据分析变得像聊天一样简单,是企业智能化转型的重要工具。

1 年前
比GraphRAG更懂“思考”,微软又开源PIKE-RAG:主打复杂私域知识理解和推理 继GraphRAG之后,微软又发布PIKE-RAG,主打在复杂企业场景中私域知识提取、推理和应用能力,PIKE-RAG 已在工业制造、采矿、制药等领域进行了测试,显著提升了问答准确率。报告、代码、demo均已开源。

1 年前
Neocortex Neocortex,又称新皮质,是哺乳动物大脑中最外层的一部分,负责高级神经功能。它是大脑皮层的最新进化部分,占据了人类大脑皮层的绝大部分。Neocortex在认知、感知、空间推理、语言和意识等复杂功能中起着关键作用。 结构 Neocortex由六层神经元组成,每层具有不同的细胞类型和连接方式。这些层次从外到内依次为: 分子层(Layer I):主要由神经纤维和少量神经元组成。 外颗粒层(Layer II):包含小颗粒细胞。 外锥体层(Layer III):包含中等大小的锥体细胞。 内颗粒层(Layer IV):接收来自丘脑的感觉输入。 内锥体层(Layer V):包含大锥体细胞,投射到皮层下结构。 多形层(Layer VI):包含多种细胞类型,投射回丘脑。 功能 Neocortex负责多种高级功能,包括: 感知:处理来自视觉、听觉、触觉等感官的信息。 运动控制:规划和执行复杂的运动。 语言:涉及语言的产生和理解。 记忆:短期和长期记忆的形成与检索。 决策:评估选项并做出决策。 意识:自我意识和环境意识的形成。 进化 Neocortex在哺乳动物中最为发达,尤其在灵长类和人类中。其进化与复杂社会行为、工具使用和语言能力的发展密切相关。人类Neocortex的扩展被认为是智力和文化发展的基础。 相关疾病 Neocortex的损伤或功能障碍与多种神经精神疾病有关,如: 阿尔茨海默病:记忆和认知功能衰退。 癫痫:异常电活动导致癫痫发作。 精神分裂症:思维、情感和行为障碍。 研究 Neocortex的研究涉及神经科学、心理学、人工智能等多个领域。理解其结构和功能有助于开发治疗神经疾病的新方法,并推动人工智能和机器学习的发展。 Neocortex作为大脑的高级处理中心,其复杂性和功能多样性使其成为现代神经科学研究的重要焦点。
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI