华为宣布开源盘古7B稠密和72B混合专家模型
1 天前

华为6月30日正式宣布开源盘古70亿参数稠密模型、720亿参数盘古Pro MoE混合专家模型及基于昇腾的推理技术。目前,盘古Pro MoE 72B模型权重与推理代码已上线开源平台,而盘古7B相关模型权重与推理代码将近期上线。