以辞害意网以辞害意网

UIUC发布StarCoder2-15B-Instruct代码大模型 无需OpenAI数据登上性能榜单

UIUC发布StarCoder2-15B-Instruct代码大模型 无需OpenAI数据登上性能榜单

CSS站长资源(ChinaZ.com)5月16日 消息:UIUC与BigCode组织的发布研究者们最近发布了StarCoder2-15B-Instruct代码大模型,这一创新成果在代码生成任务方面取得了显著突破。代码大模单这款模型成功超越了CodeLlama-70B-Instruct,型无需登上了代码生成性能榜单之巅。数上性

StarCoder2-15B-Instruct的据登独特之处在于其纯自对齐策略,整个训练流程公开透明,发布且完全自主可控。代码大模单通过自我生成数千个指令-响应对,型无需直接对StarCoder-15B基座模型进行微调,数上性无需依赖昂贵的据登人工标注数据,也无需从商业大模型中获取数据,发布避免了潜在的代码大模单版权问题。

在HumanEval测试中,型无需StarCoder2-15B-Instruct以72.6%的数上性Pass@1成绩脱颖而出,较CodeLlama-70B-Instruct的据登72.0%有所提升。在LiveCodeBench数据集的评估中,这一自对齐模型的表现甚至超越了基于GPT-4生成数据训练的同类模型,证明了通过自身数据训练的大模型同样能够有效地学习如何与人类偏好对齐。

StarCoder2-15B-Instruct的数据生成流程主要包括种子代码片段的采集、多样化指令的生成和高质量响应的生成三个核心步骤。种子代码片段的采集是通过从开源代码片段中选取高质量、多样化的种子函数开始的。然后,基于这些种子函数的不同编程概念,StarCoder2-15B-Instruct能够创建出多样化且真实的代码指令。最后,通过自我验证的方式确保生成的响应是准确且高质量的。

StarCoder2-15B-Instruct在备受瞩目的EvalPlus基准测试中表现出色,超越了规模更大的Grok-1Command-R+和DBRX,并与Snowflake Arctic480B和Mixtral-8x22B-Instruct等业界翘楚性能相当。此外,在LiveCodeBench和DS-1000等评估平台上也展现出了强大的实力。

该项目的成功实施得到了美国东北大学Arjun Guha课题组、加州大学伯克利分校、ServiceNow和Hugging Face等机构的鼎力支持。

StarCoder2-15B-Instruct-v0.1的发布标志着研究者们在代码模型自我调优领域迈出了重要一步。这款模型的成功实践展示了通过自我调优同样能够构建出性能卓越的代码模型。同时,该模型的开源数据集和训练流程为未来该领域的研究和发展奠定了坚实的基础。

模型地址:https://huggingface.co/bigcode/starcoder2-15b-instruct-v0.1

赞(7)
未经允许不得转载:>以辞害意网 » UIUC发布StarCoder2-15B-Instruct代码大模型 无需OpenAI数据登上性能榜单