据 MarkTechPost 报道,在最近发布的一篇研究论文中,斯坦福大学和康奈尔大学的研究者提出了一种方法以应对大型语言模型极高的训练成本。该团队举例说,在维基百科 5,500 万个页面上运行推理的成本超过 10 万美元,相当于每 1,000 个词组的价格超过 0.002 美元。与直接对每个文档进行推理相比,这些研究者提出的方法可以将推理成本降低 110 倍,同时还能提高推理结果的质量。 据悉,该原型系统称为 EVAPORATE,由 LLMs 提供动力,并确定了两种不同的系统实施策略。第一种策略是提示 LLM 直接从文档中提取值。第二种策略是促使 LLM 合成执行提取的代码。研究小组对这两种方法进行了评估,发现它们之间存在成本与质量的权衡。虽然代码合成的成本更低,但其准确性也不如直接用 LLM 处理每个文档。为了提高质量并保持低成本,该团队还提出名为 EVAPORATE-CODE+ 的扩展代码合成实现方法。 原文链接 —- 编译者/作者:Yangz 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
斯坦福大学研究人员提出 EVAPORATE 原型系统,可将语言模型的推理成本降低 11
2023-07-20 Yangz 来源:区块链网络
LOADING...
相关阅读:
- 消息人士:三星电子提议向英伟达供应用于 AI GPU 的 HBM3 2.5D 封装2023-07-20
- 微软 Teams 开始整合 AI 助手 Copilot,已扩展通话和聊天两种模式2023-07-20
- 推特等公司要价太高,OpenAI 和 Cohere 等 AI 公司转向合成数据2023-07-20
- OpenAI 将 ChatGPT Plus 客户可发送到 GPT-4 的消息数量增至每 3 小时 50 次2023-07-20
- 亚马逊云科技:已支持 Meta 推出的最新 Llama 2 基础模型2023-07-19