混合专家模型(Mixture of Experts, MoE)是一种机器学习模型,它将多个专家模型(Experts)组合起来,以解决复杂的问题。
1 年前
帮你写代码、读文件、写作各种创意内容
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI
Minimax(海螺AI)已由大模型名Minimax替换原海螺AI。现海螺AI为Minimax视频生成产品名。
海螺AI