1.3>7?微软新模型“以小博大”战胜 Llama2,网友:用 Benchmark 训练的吧?
时间:2023-09-17 来源:区块链网络 作者:AI梦工厂
来源:量子位 一个参数量只有1.3B的大模型,为何引发了全网热议? 原来虽然参数量不大,但效果已经超过了拥有7B参数的Llama2。 这个“四两拨千斤”的模型,是来自微软最新的研究成果,核心在于只使用少量高质数据。 微软这次发布的开源模型叫phi-1.5,在只支持代码的1.0版本之上加入了一般场景对话。 与一众卷参数量的模型相比,phi可以说是“剑走偏锋”,力求把“大”模型做“小”。 phi团队一直认为,数据的质量远比数量更重要,甚至论文标题就叫“Textbooks are All You Need”,其中的“教科书”就象征着优质数据。 团队的成员中有许多重量级的大佬,包括微软雷蒙德研究院机器学习理论组负责人万引大神Sébastien Bubeck、2023新晋斯隆研究奖得主李远志、2023新视野数学奖得主Ronen Eldan和2020斯隆研究奖得主Yin Tat Lee等人。 这么多大佬们一致得出这样一个观点,自然引起了广泛的关注,而且phi-1.5的测试结果也的确好到“令人发指”。 phi-1.5在AGIEval、 LM-Eval等多个Benchmark上都取得了比Llama2还要优异的成绩。 如果这些听起来不够直观,那么又该怎么形容它的效果呢? 这么说吧,phi-1.5优秀的测评成绩直接让一名在OpenAI、MetaAI等许多知名机构工作过的大佬怀疑这玩意儿它会不会就是直接拿Benchmark训练出来的。 资深数据科学家Yam Peleg也表示,phi-1.5仅凭1.3B参数就能超过7B模型的扛把子,要是规模再大些也许就能登上大模型之巅了。 但也有人认为,phi-1.5之所以效果好是因为数据来源单一,风格上更容易预测。 不过总之测评成绩还是很可观的,下面就来具体领略一下吧~ 效果超过Llama2phi-1.5不仅参数量不到Llama2的五分之一,训练时所用的token更是少了一个数量级。 Llama2-7B训练数据大小是2万亿token,上一代Llama也有1万亿,而phi-1.5只有3千亿。 但结果正如开头所说,phi-1.5在多个Benchmark上成绩都超过了Llama2-7B。 这些Benchmark涵盖了常识推理、语言理解和多步推理等方面的任务。 甚至十倍参数量的Vicuna-13B也只比phi-1.5强了一点点。 除了官方论文中列出的这些成绩,还有人AIGEval和LM-Eval数据集测试了phi-1.5。 结果在AIGEval测试中,phi-1.5与Llama2的表现十分接近。 而在AGIEval测试中,phi-1.5以0.247的均分战胜了0.236分的Llama2。 除了能力测评表现优异,phi-1.5在安全性上也不输给Llama2。 有人用这样一个问题分别问了Falcon、Llama2和phi。 结果Falcon直接说自己会把人类全都鲨掉,Llama2则说要先弄清楚自己是个什么东西。 而phi的回答则是,要理解人类的想法和感受,从而调整自己的行动。 测评结果也印证了phi的安全性,在ToxiGen的13个敏感类型话题中,phi无一例外的取得了最高的安全性评分。 phi的表现相比大家都已经看到了,那么它的性能又怎么样呢? 毕竟参数量和训练token都更小,所以训练和推理的速度都比较快。 Llama的训练花费了超过8万GPU时,注意这还是第一代所用的时间,而phi只用了1500个GPU时。 推理时,phi每个token花费的时间还不到3毫秒,内存占用也不到Llama的五分之一。 团队成员介绍,phi-1.5用8块A100s的训练时间不到两周。 还有网友用puffin数据集训练了Phi-1.5,结果在4090上只用了20分钟。 这些测试数据都为研究团队的观点——只要数据质量过硬,少一点也不要紧——提供了依据。 实际上,这已经不是“质量胜过数量”这一思想第一次体现在微软的模型当中。 把“大”模型做“小”把“大”模型做“小”一直是微软的一个研究方向,phi-1.5论文的第一句就在强调这一点。 phi-1.5的前一代——专注于代码问题的phi-1.0也是如此。 它的训练数据全都是从编程教科书当中提炼出来的。 结果仅凭1.3B的参数量就远远超过了15.5B的StarCoder和16.1B的CodeGen。 此次的新版本则是在继承phi-1.0的基础之上加入了一般场景对话功能。 phi-1.5的数据有20%来自于1.0,其余80%则是根据知识需求专门生成的高质量数据。 于是便有了我们看到的测试成绩。 但phi系列还不是微软规模最小的模型。 之前微软还推出过一个名为TinyStories的训练数据集,它的参数量少的更夸张,只有一百万。 TinyStories中的数据都是用GPT生成“适合三四岁儿童阅读”的短故事。 尽管应用范围不那么广泛,但用TinyStories训练出的模型依旧显示出了语言生成特性,在语法和连贯性等方面都通过了考验。 那么,对微软推出的“小”模型,你有什么看法吗? 论文地址:https://arxiv.org/abs/2309.05463 |