据华为计算官微消息,10月15日,openPangu-Ultra-MoE-718B-V1.1正式在GitCode平台开源,模型权重与技术细节全面公开。openPangu-Ultra-MoE-718B-V1.1是基于昇腾NPU训练的大规模混合专家(MoE)语言模型,总参数规模达718B,激活参数量为39B。据介绍,相比上一版本,V1.1在Agent工具调用能力上显著增强,幻觉率进一步降低。
上一篇:原创 被中方反制打痛,特朗普对商务部长大发雷霆,你把和中国的事情搞砸了
下一篇:人类皮肤细胞变身AI处理器?瑞士公司用生物计算将AI能耗降低百万数量级