据站长之家 8 月 1 日报道,华为云、中国科学院和北京大学的研究人员最近提出了一种名为 RRTF(Rank Responses to align Test&Teacher Feedback)的新框架,能够有效地提升预训练的大型语言模型(LLM)在代码生成方面的性能。RRTF 框架通过自然语言 LLM 对齐技术和排名反馈的方式来改进代码生成 LLM 的表现。研究团队还引入了 PanGu-Coder2 模型,该模型在 OpenAI HumanEval 基准测试中取得了出色的 62.20% 的通过率。 该研究通过在 StarCoder15B 上应用 RRTF 框架,超越了 PanGu-Coder 并获得了所有记录的代码 LLM 中最佳性能,证明了 RRTF 的有效性。对三个基准测试(HumanEval、CoderEval 和 LeetCode)的全面分析表明,代码 LLM 在代码生成任务中可能能够超过相同或更大规模的自然语言模型。研究还强调了高质量数据对提高模型遵循指令和编写代码能力的价值。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
华为云研究团队提出 PanGu-Coder2 模型和 RRTF 框架,提升大模型性能
2023-08-01 东寻 来源:区块链网络
LOADING...
相关阅读:
- Gartner 报告:全球客服中心正拥抱对话式 AI,今年支出将增长 16.2%2023-08-01
- AWS 联合 Accel 推出生成式 AI 初创企业加速器计划 ML Elevate 20232023-07-31
- 德勤:生成式人工智能将对投资银行业乃至整个金融服务业产生重大影2023-07-31
- 华为:盘古大模型训练效能已达业界主流 GPU 的 1.1 倍2023-07-31
- 汉得发布新一代产品体系 HERO,包括 HZero 技术中台、AIGC 中台等2023-07-31