字节跳动豆包大模型团队近日开源一项名为COMET的MoE架构优化技术,可将大模型训练效率提升1.7倍。论文显示,该技术已实际应用于字节的万卡集群训练,实现数百万GPU小时训练算力的节省。
上一篇:美股AI交易结束了吗?高盛发声:投资者会回来,“第三阶段AI交易”最值得关注
下一篇:普元信息:目前,公司产品已接入阿里开源推理模型QwQ-32B