您现在的位置是:深度 >>正文

元象发布 XVERSE-MoE-A4.2B 大模型 可免费商用

深度8658人已围观

简介CSS站长资源ChinaZ.com)4月3日 消息:元象发布了 XVERSE-MoE-A4.2B 大模型,采用混合专家模型架构,激活参数为4.2B,效果媲美13B 模型。该模型全开源,免费商用,可用于 ...

元象发布 XVERSE-MoE-A4.2B 大模型 可免费商用

CSS站长资源(ChinaZ.com)4月3日 消息:元象发布了 XVERSE-MoE-A4.2B 大模型,元象用采用混合专家模型架构,发布费商激活参数为4.2B,模型效果媲美13B 模型。可免该模型全开源,元象用免费商用,发布费商可用于海量中小企业、模型研究者和开发者,可免推动低成本部署。元象用

该模型具有极致压缩和超凡性能两大优势,发布费商采用稀疏激活技术,模型效果超越多个业界顶流模型,可免并接近超大模型。元象用元象 MoE 技术自研创新,发布费商研发高效融合算子、模型细粒度专家设计、负载均衡损失项等,最终采用实验4对应的架构设置。

在商业应用上,元象大模型已与多个腾讯产品进行深度合作,为文化、娱乐、旅游、金融领域提供创新用户体验。

  • Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A4.2B

  • ModelScope魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A4.2B

  • Github:https://github.com/xverse-ai/XVERSE-MoE-A4.2B

Tags:

相关文章