IT 之家今日发文表示,AI 模型盲堆体积实际上效果并不见得更好,更多要看训练数据的质量,微软日前最近发布了一款 13 亿参数的语言模型 phi-1,采用“教科书等级”的高品质资料集训练而成,据称“实际效果胜于千亿参数的 GPT 3.5”。该模型以 Transformer 架构为基础,微软团队使用了包括来自网络的“教科书等级”数据和以 GPT-3.5 经过处理的“逻辑严密的内容”,以及 8 个英伟达 A100 GPU,在短短 4 天内完成训练。 微软团队表示,比起增加模型的参数量,通过提高模型的训练数据集质量,也许更能强化模型的准确率和效率,于是,他们利用高质量数据训练出了 phi-1 模型。在测试中,phi-1 的分数达到 50.6%,比起 1750 亿参数的 GPT-3.5(47%)还要好。微软还表示,phi-1 接下来会在 HuggingFace 中开源,而这不是微软第一次开发小型 LLM,此前,他们打造一款 130 亿参数的 Orca,使用了 GPT-4 合成的数据训练而成,表现也同样比 ChatGPT 更好。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
微软打造 13 亿参数小型 LLM AI 模型,并称实际效果胜于千亿参数 GPT-3.5
2023-06-27 东寻 来源:区块链网络
LOADING...
相关阅读:
- 原粒半导体创始人方绍峡:大模型将催生边缘算力需求2023-06-27
- OpenAI 将 ChatGPT 视为用于工作场所的个人辅助工具2023-06-27
- 基金人士:近期整体 AI 板块下跌多基于事件性冲击,整体行情未见顶的2023-06-27
- BentoML 获得 900 万美元资金,将加速 AI 应用开发2023-06-27
- 世界经济论坛发布 2023 年十大新兴技术,生成式人工智能入选2023-06-27