华为云研究团队提出 PanGu-Coder2 模型和 RRTF 框架,提升大模型性能
时间:2023-08-01 来源:区块链网络 作者:东寻
据站长之家 8 月 1 日报道,华为云、中国科学院和北京大学的研究人员最近提出了一种名为 RRTF(Rank Responses to align Test&Teacher Feedback)的新框架,能够有效地提升预训练的大型语言模型(LLM)在代码生成方面的性能。RRTF 框架通过自然语言 LLM 对齐技术和排名反馈的方式来改进代码生成 LLM 的表现。研究团队还引入了 PanGu-Coder2 模型,该模型在 OpenAI HumanEval 基准测试中取得了出色的 62.20% 的通过率。 该研究通过在 StarCoder15B 上应用 RRTF 框架,超越了 PanGu-Coder 并获得了所有记录的代码 LLM 中最佳性能,证明了 RRTF 的有效性。对三个基准测试(HumanEval、CoderEval 和 LeetCode)的全面分析表明,代码 LLM 在代码生成任务中可能能够超过相同或更大规模的自然语言模型。研究还强调了高质量数据对提高模型遵循指令和编写代码能力的价值。 原文链接 |
知识: AIGC