您现在的位置是:知识 >>正文
开源大模型DBRX:1320亿参数,比Llama2-70B快1倍
知识6652人已围观
简介**划重点:**- 💡 Databricks发布MoE大模型DBRX,击败Grok-1和Mixtral等开源模型。- 💡 DBRX参数量为1320亿,混合专家模型,激活参数量为360亿,比Llama2 ...
**划重点:
**- 💡 Databricks发布MoE大模型DBRX,开源B快击败Grok-1和Mixtral等开源模型。大模
- 💡 DBRX参数量为1320亿,参数混合专家模型,比L倍激活参数量为360亿,开源B快比Llama2-70B生成速度快1倍。大模
- 💡 经过课程学习,参数DBRX在语言理解、比L倍编程、开源B快数学和逻辑等方面达到SOTA水平。大模
CSS站长资源(ChinaZ.com)3月28日 消息:大数据公司Databricks最近发布了一款名为DBRX的参数MoE大模型,引发了开源社区的比L倍热议。DBRX在基准测试中击败了Grok-1、开源B快Mixtral等开源模型,大模成为了新的参数开源之王。这款模型的总参数量达到了1320亿,但每次激活只有360亿参数,并且其生成速度比Llama2-70B快1倍。
DBRX是由16个专家模型组成,每次推理有4个专家处于激活状态,上下文长度为32K。为了训练DBRX,Databricks团队从云厂商那里租用了3072个H100,历时两个月进行训练。经过内部讨论,团队决定采用课程学习的方法,用高质量数据提高DBRX在特定任务上的能力。这一决策取得了成功,DBRX在语言理解、编程、数学和逻辑等方面均达到了SOTA水平,并在大多数基准测试中击败了GPT-3.5。
Databricks还发布了DBRX的两个版本:DBRX Base和DBRX Instruct,前者是预训练基础模型,后者则经过指令微调。首席科学家Jonathan Frankle透露团队接下来计划对模型进行进一步研究,探索DBRX如何在训练的“最后一周”中获得额外技能。
尽管DBRX受到开源社区的欢迎,但也有人对其“开源”的质疑。根据Databricks公布的协议,基于DBRX打造的产品,如果月活超过7亿,就必须另行向Databricks提交申请。
项目入口:https://top.aibase.com/tool/dbrx
Tags:
相关文章
华为等国产机热卖!苹果不屑:iPhone在中国依然秀
知识快科技2月3日消息,苹果大中华区的财报非常糟糕,以至于他们自己也感觉不满意。苹果CFO卢卡梅斯特里(Luca Maestri)对此表示,公司对于中国收入的下滑感到不满意,但是中国市场蕴含长期重大机遇。 ...
【知识】
阅读更多你敢相信这些都是手机拍的吗?天玑9300旗舰手机拍摄体验
知识2024年6月14日–MediaTek携手全球纪实娱乐领导品牌Discovery探索频道在桂林阳朔举办以“越极境,见芯境”为主题的天玑影像展活动,我们也有幸受邀前往观展并使用搭载了天玑9300系列芯片 ...
【知识】
阅读更多史上!抖音集团成2024年巴黎奥运会持权转播商
知识快科技6月14日消息,今日,抖音集团宣布与中央广播电视总台达成合作,成为2024年巴黎奥运会持权转播商。此次合作,也是抖音集团首次成为奥运会的持权转播商。据了解,巴黎奥运会将于7月26日至8月11日举 ...
【知识】
阅读更多