在线大模型微调平台 | 一站式低代码训练服务
3 个月前

LoRA(Low-Rank Adaptation)是一种对大模型进行“轻量级微调”的技术。
5 个月前

BERT(Bidirectional Encoder Representations from Transformers)是由Google于2018年发布的一种预训练语言模型,基于Transforme
1 年前

模型微调(Fine-tuning)与模型蒸馏(Knowledge Distillation)的比较 1. 定义与核心思想 模型微调 在预训练模型的基础上,通过目标任务的数据调整模型参数(通常仅
1 年前

一款机器学习实验跟踪和管理工具
1 年前

快速构建和部署AI应用
1 年前

在大模型(如深度学习模型)中,微调(Fine-Tuning)是指在预训练模型的基础上,对模型进行进一步的训练,以适应特定任务或数据集的需求。
1 年前

LoRA 通过低秩近似的方式,在保持模型性能的同时,显著降低了微调大语言模型的计算和存储成本,提高了训练效率和灵活性。
1 年前
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI