以辞害意网以辞害意网

1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX

1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX

3月28日,亿参源著名数据和AI平台Databricks在官网正式开源大模型——DBRX。数性DBRX是模型一个专家混合模型(MoE)有1320亿参数,能生成文本/代码、亿参源数学推理等,数性有基础和微调两种模型。模型根据DBRX在MMLU、亿参源HumanEval和 GSM8K公布的数性测试数据显示,不仅性能超过了LLaMA2-70B和马斯克最近开源的模型Grok-1

......

本文由CSS站长资源合作伙伴自媒体作者“​AIGC开放社区公众号”授权发布于CSS站长资源平台,本平台仅提供信息索引服务。亿参源由于内容发布时间超过平台更新维护时间,数性为了保证文章信息的模型及时性,内容观点的亿参源准确性,平台将不提供完全的数性内容展现,本页面内容仅为平台搜索索引使用。模型需阅读完整内容的用户,请查看原文,获取内容详情。

即将跳转到外部网站 安全性未知,是否继续 继续前往
赞(8135)
未经允许不得转载:>以辞害意网 » 1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX