据 IT 之家 6 月 13 日报道,近日,阿联酋科技创新研究所(TII)打造出了 400 亿参数的语言模型 Falcon-40 B,在 Hugging Face 的 OpenLLM 排行榜上排名第一,并持续霸榜,赢过此前 LLaMA、StableLM 和 RedPajama 等竞争者。 据称,Falcon-40 B 使用了 384 颗 GPU 来进行 2 个月的训练、利用将近 5 亿个 Token 训练而成。为提高训练过程的质量,团队还自己组建了一套工作流程来筛选出“最高质量的的资料”供给 AI 模型训练。经多个基准测试,表现比 LLaMA、Vicuna 和 Alpaca 更加出色。 此外,团队还采用了“多重查询注意力”(Multiqery attention)机制,来提高模型的效率。“多重查询注意力”机制即模型可以对每个 Token 进行多个查询,来更好表示同一序列中,不同 token 之间的关系,以在加速模型运算效率的同时,降低模型的复杂性,进而提高模型整体的可维护性。 阿联酋科技创新研究所首席执行官 Ray O. Johnson 博士表示:“2023 年将是人工智能之年。Falcon 模型对我们来说具有里程碑意义,但这仅仅是个开始”。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
阿联酋打造的 Falcon-40B 语言模型在 OpenLLM 上排名第一,持续霸榜
2023-06-13 东寻 来源:区块链网络
LOADING...
相关阅读:
- Salesforce 推出 AI Cloud 服务,并将其生成式 AI 风投基金规模翻倍2023-06-12
- 360 智脑产品通过中国信通院可信 AIGC 大语言模型功能评估2023-06-12
- 英国首相谈 AI 创新和监管框架之间的平衡:需理解创新如何发生并为其2023-06-12
- AI商业领域最炙手可热的两个人,没有踏上中国大陆2023-06-12
- ChatGPT 之父旋风式走访多国,并对协调监管感到乐观2023-06-12