腾讯发布混元开源MoE模型

小编 2025-07-08

腾讯发布了其首款开源混合推理MoE(Mixture of Experts)模型,该模型具有80亿参数,激活参数仅13亿,适合中低端GPU部署,提升了推理效率。