logo AI平台
  • 首页
  • AI简讯
    • 国内
    • 国际
  • AI+行业
    • 智能家居
    • 艺术娱乐
    • 健康医疗
    • 人力资源
    • 金融科技
    • 法律服务
    • 工业制造
    • 能源能效
    • 仓储物流
    • 市场分析
    • 环境气候
    • 安全监控
  • AI技术
    • 机器学习
    • 深度学习
    • 神经网络
    • 语言模型
    • 语音视觉
    • 机器人
    • 专家系统
    • 流程智能化
  • AI硬件
    • 计算核心
    • 语音视觉
    • 传感器
    • 智能终端
    • 智能机器人
  • AI教培
    • 教育
    • 培训
    • 会议
    • 观点
    • 专家
  • AI百科
  • 合作咨询
  • 登录
  1. 首页
  2. 包含“微调”话题的文章
网站
Wandb

Wandb

一款机器学习实验跟踪和管理工具

2753 102
0
Together.ai

Together.ai

快速构建和部署AI应用

3275 106
0
文章
  • 预训练语言模型 BERT

    预训练语言模型 BERT

    BERT(Bidirectional Encoder Representations from Transformers)是由Google于2018年发布的一种预训练语言模型,基于Transforme

    3 个月前

  • 模型微雕和模型蒸馏的比较:Fine-tuning vs. Knowledge Distillation

    模型微雕和模型蒸馏的比较:Fine-tuning vs. Knowledge Distillation

    模型微调(Fine-tuning)与模型蒸馏(Knowledge Distillation)的比较 1. 定义与核心思想 模型微调 在预训练模型的基础上,通过目标任务的数据调整模型参数(通常仅

    3 个月前

  • Fine-Tuning: 微调

    Fine-Tuning: 微调

    在大模型(如深度学习模型)中,微调(Fine-Tuning)是指在预训练模型的基础上,对模型进行进一步的训练,以适应特定任务或数据集的需求。

    10 个月前

  • LoRA微调技术

    LoRA微调技术

    LoRA 通过低秩近似的方式,在保持模型性能的同时,显著降低了微调大语言模型的计算和存储成本,提高了训练效率和灵活性。

    10 个月前

关于本站 合作咨询 联系本站
本站由emlog pro驱动 Theme by AI资源网址导航模版  
sitemap