据新智元 9 月 7 日报道,开源大模型 Falcon 180B 登顶 Hugging Face 排行榜,评分 68.74 分,超越 LlaMA 2(67.35)。在基准测试中,Falcon 180B 在推理、编码、熟练度和知识测试各种任务中,一举击败 Llama 2。甚至,Falcon 180B 能够与谷歌 PaLM 2 不差上下,性能直逼 GPT-4。对此,英伟达高级科学家 Jim Fan 表示质疑,称 Falcon-180B 的训练数据中,代码只占 5%,且没有编码基准数据。 此前,Falcon 已经推出了三种模型大小,分别是 1.3B、7.5B、40B。官方介绍,Falcon 180B 是 40B 的升级版本,由阿布扎比的全球领先技术研究中心 TII 推出,可免费商用。对于训练过程,Falcon 180B 基于亚马逊云机器学习平台 Amazon SageMaker,在多达 4096 个 GPU 上完成了对 3.5 万亿 token 的训练。 原文链接 —- 编译者/作者:Yangz 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
开源大模型 Falcon 180B 登顶 Hugging Face 排行榜
2023-09-07 Yangz 来源:区块链网络
LOADING...
相关阅读:
- 蚂蚁集团井贤栋:大模型进展将于明日发布2023-09-07
- AI 智能硬件公司“未来智能”完成数千万元 Pre-A 轮融资2023-09-07
- 美国初创公司 Delphi 完成 270 万美元融资,并推出 AI 数字克隆服务2023-09-07
- 立昂技术:与北京中科闻歌科技在人工智能超算智算中心等领域展开全2023-09-06
- 值得买:年初采购了一批用于训练消费内容大模型的 H100 算力卡2023-09-06