据 IT 之家 7 月 25 日消息,AI 创业公司 MosaicML 近日发布了其 70 亿参数模型 MPT-7B-8K。据悉,该模型一次可以处理 8000 字文本,相当擅长处理长文重点摘要和问答,还能在 MosaicML 平台上根据特定任务,进一步微调相关配置。 据悉,系列模型采用了 150 万个 Token,并以 256 块 H100 GPU 花 3 天完成模型训练而成。MosaicML 本次发布了 3 个版本模型,包括 MPT-7B-8k、MPT-7B-8k-Instruct 和 MPT-7B-8k-Chat。 原文链接 —- 编译者/作者:Yangz 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
AI 公司 MosaicML 推出 70 亿参数模型 MPT-7B-8K,号称“一次处理 8000 字长文本、可商
2023-07-25 Yangz 来源:区块链网络
LOADING...
相关阅读:
- AI 公司 MosaicML 推出 70 亿参数模型 MPT-7B-8K,号称“一次处理 8000 字长文2023-07-25
- 高盛:看好 AI 服务器驱动 ABF 载板需求增长2023-07-25
- 巴比特 | 元宇宙每日必读:从VR/AR、元宇宙再到AIGC,追着“元年”跑的2023-07-25
- 大华股份:年内有望发布视觉领域大模型,首先应用于城市管理等行业2023-07-24
- 海天瑞声:大模型高质量数据需要高质量人工支持2023-07-24