
这正是当前 AI 视频生成领域最前沿的突破方向。你提出的这个问题,本质上是在问如何让 AI 从“画皮”进阶到“画骨”——即不仅画面好看,运动逻辑也要符合现实世界的物理法则。 结合最新的技术进展(如 2
2 个月前

利用大语言模型(LLM)构建虚拟的“世界模型”(World Models),以此作为 KI 智能体(AI Agents)积累经验和训练的场所。 核心概念:让 LLM 成为 AI 的“模拟练习场” 目前
2 个月前

LoRA(Low-Rank Adaptation)是一种对大模型进行“轻量级微调”的技术。
3 个月前

Gemini 3 标志着AI模型从“增量优化”向“范式转变”的重大跃进。
3 个月前

上下文光学压缩语言模型
4 个月前

DeepSeek OCR 介绍 DeepSeek OCR 是由中国 AI 公司 DeepSeek AI 于 2025 年 10 月 20 日发布的开源视觉语言模型(VLM),旨在探索“光学上下文压缩”
4 个月前

使用简单的 API 运行顶级 AI 模型
9 个月前

📢 OpenAI即将发布GPT-4.1,多模态能力再升级! 据多家科技媒体报道,OpenAI计划于下周(2025年4月中旬)推出GPT-4.1,作为GPT-4o的升级版本,进一步强化多模态推理能力
11 个月前

低成本训练 AI 语言模型
11 个月前

谷歌大模型与人脑语言处理机制研究由谷歌研究院与普林斯顿大学、纽约大学等合作开展。3 月上旬,谷歌的研究成果表明大模型竟意外对应人脑语言处理机制。他们将真实对话中的人脑活动与语音到文本 LLM 的内部嵌
11 个月前
集中管理多种大模型API
12 个月前

Anthropic 开放标准协议 Model Context Protocol
1 年前

2025 年 3 月 12 日,清华大学 NLP 实验室联手中南大学等提出 APB 序列并行推理框架,可解决长上下文远距离语义依赖问题,在 128K 文本上比 Flash Attention 快约 1
1 年前

在自然语言处理和人工智能领域,token通常是指文本中的基本单元,比如一个单词、一个标点符号或者一个子词等。100万token的输入输出量是一个较大的数据规模,以下从不同角度来理解这一概念: 从文本长
1 年前

埃隆·马斯克领导的美国政府效率部(DOGE)正在开发一款名为 AutoRIF(Automated Reduction in Force)的自动裁员软件,旨在帮助美国政府大规模“精简”工作人员。 Au
1 年前

由斯坦福大学教授 Stefano Ermon 创立的初创公司 Inception Labs 推出了 Mercury Coder,这是第一个大规模基于扩散的语言模型 (dLLM)。与按顺序生成文本的传
1 年前

首款扩散语言模型(dLLMs)
1 年前

开源版和商业不开源版的大语言模型(LLM)在多个方面存在显著区别,包括访问方式、性能、定制化能力、数据安全性、技术支持、成本等。以下是详细对比: 1. 访问方式 开源版:通常提供模型权重、训练
1 年前

BERT(Bidirectional Encoder Representations from Transformers)是由Google于2018年发布的一种预训练语言模型,基于Transforme
1 年前

GPT模型构架和流程图形化
1 年前

模型微调(Fine-tuning)与模型蒸馏(Knowledge Distillation)的比较 1. 定义与核心思想 模型微调 在预训练模型的基础上,通过目标任务的数据调整模型参数(通常仅
1 年前

结合DeepSeek R1和ChatGPT的合并使用,理论上可以通过互补优势提升整体性能,但实际效果取决于具体实现方式、任务类型及资源优化能力。以下是综合分析: 一、合并使用的潜在优势 任务性
1 年前

OpenAI 对 GPT-5 的愿景集中于创建一个“统一智能”系统,无缝整合多种 AI 功能。这种方法旨在消除用户在不同模型之间进行选择的需求,而是提供一个单一且强大的 AI,能够轻松处理各种任务。
1 年前

研究概述:Protein codes promote selective subcellular compartmentalization 这项研究由麻省理工学院(MIT)和怀特黑德生物医学研究所(
1 年前

高效的模型训练和微调工具
1 年前

Aleph Alpha无分词器LLM架构创新与应用解析 1️⃣ 创新架构:突破传统分词限制 德国Aleph Alpha公司推出无分词器(tokenizer-free)LLM架构,通过分层字符-词语
1 年前

蚂蚁集团AI原生数据应用开发框架
1 年前

腾讯混元大模型的数学原理主要基于深度学习和自然语言处理领域的相关技术,以下是其核心要点: 神经网络与Transformer架构 多层神经网络:混元大模型采用多层神经网络结构,通过模拟人脑神经元之间的
1 年前

由机器学习专家 Sebastian Raschka 撰写的一本实用指南,帮助读者从零开始构建自己的大型语言模型(LLM)。
1 年前

世界级语义表示模型
1 年前

AI聊天上下文长度是指在一次对话中,AI模型能够记住并参考的最大文本量。这包括用户输入和AI回复的总字数或 token 数(AI 模型处理文本的基本单位,类似于单词或字符片段)。 📚 上下文长度的关键
1 年前

杭州在AI领域崛起有城市“基因密码”,使得杭州在人工智能技术,特别是语言大模型领域引领全球。
1 年前

以下是基于API调用费用的10大语言大模型价格比较表格,整理自最新公开信息: 模型名称 提供商 输入价格($/1M tokens) 输出价格($/1M tokens) 上下文长度 备注
1 年前

DeepSeek(深度求索)是一家专注于大语言模型(LLM)和相关技术研发的创新型科技公司,成立于2023年7月,由知名量化私募巨头幻方量化创立。DeepSeek的AI产品主要包括以下几类: 语言模型
1 年前

最好用价格最低的语言大模型
1 年前

不同于其他复杂抽象层的框架,Atomic Agents 追求的是简洁和直观。
1 年前

在人工智能的浪潮中,数据曾被视为无尽的宝藏。然而,这一局面可能即将改变。Ilya Sutskever,OpenAI的前首席科学家,在NeurIPS2024上抛出了一枚重磅炸弹:预训练模型的时代即将结
1 年前

微软2024年12月13日宣布推出 14B 参数 “最先进” 小型语言模型(SLM)Phi-4。除了传统的语言处理外,它还擅长数学等领域的复杂推理。 Phi-4 是 Phi 系列小型语言模型的最新成
1 年前

发布新一代端侧大模型:9 月 5 日,面壁智能推出新一代端侧大模型 ——MiniCPM3.0。 该模型在上下文处理长度、function calling 等方面进行了全面升级,在性能上超越了阿里的 Q
1 年前

语言大模型(LLM)能够生成图片和视频的能力主要依赖于其多模态学习和生成技术。
1 年前

开源多模态大型语言模型
1 年前

AI 模型集成服务平台
1 年前

语言技术(语音、书写、印刷、编码)的每一次重大发展都催化了我们物种的新文明时代。
1 年前

随时智能切换LLM模型
1 年前

由 Profluent Bio 设计的基因编辑系统
1 年前

零一万物大语言模型
1 年前

Claude 3.5 Sonnet属于中等尺寸模型,介于小型Haiku和高端Opus之间,在前代的基础上迭代升级,性能更快,编码、视觉和自然语言理解能力更强。
1 年前

零门槛部署运行本地语言大模型
1 年前
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI