据 IT 之家 9 月 12 日报道,微软研究院昨日发布了名为 phi-1.5 的全新预训练语言模型,共有 13 亿个参数,适用于 QA 问答、聊天格式和代码等等场景。phi-1.5 采用来自 Stack Overflow 平台关于 Python 板块的 Q&A 内容、code_contests 中的竞争代码、合成 Python 教科书,gpt-3.5-turbo-0301 生成等各种数据集,此外还包括各种 NLP 合成文本组成的新数据源。 微软表示在测试常识、语言理解和逻辑推理的基准下,phi-1.5 的表现超出了大部分参数低于 100 万的模型。phi-1.5 在 AGIEval 得分上超过了拥有 70 亿参数、来自 Meta 的 llama-2;在带 LM-Eval Harness 的 GPT4 AL 跑分套件中,可以媲美 70 亿参数的 llama-2。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
微软发布 13 亿参数小模型 phi-1.5:AGIEval 跑分优于 70 亿参数的 Meta Llama2
2023-09-12 东寻 来源:区块链网络
LOADING...
相关阅读:
- 科大国创:运营商行业大模型目前已在运营商客户中落地应用2023-09-12
- 字节跳动旗下“悟空搜索”更名“小悟空”,加入 AI 大模型工具集2023-09-11
- 知名硅谷 VC 解读:生成式 AI 赛道的19家潜力新星2023-09-11
- 台积电:看好 AI 相关 CPU 及 GPU 及加速器等芯片需求2023-09-11
- 深圳地平线机器人增资至 15 亿,经营范围含人工智能应用软件开发2023-09-11