据《科创板日报》6 月 28 日报道,据 TrendForce 集邦咨询研究显示,目前高端 AI 服务器 GPU 搭载 HBM(高带宽存储器)已成主流,预估 2023 年全球 HBM 需求量将同比增长近六成,来到 2.9 亿 GB,2024 年将再成长三成。集邦咨询预估到 2025 年,全球若以等同 ChatGPT 的超大型 AIGC 产品 5 款、Midjourney 的中型 AIGC 产品有 25 款,以及 80 款小型 AIGC 产品估算,上述所需的运算资源至少为 145,600~233,700 颗 NVIDIA A100 GPU,再加上新兴应用如超级计算机、8 K 影音串流、AR/VR 等,也将同步提高云端运算系统的负载,显示出高速运算需求高涨。2023 年 AI 服务器出货量(包含搭载 GPU、FPGA、ASIC 等)出货量预估近 120 万台,年增率近 38%,AI 芯片出货量同步看涨,可望成长突破五成。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
报告:AI 及 HPC 需求带动,预估 2023 年对 HBM 需求容量将同步增长近 60%
2023-06-28 东寻 来源:区块链网络
LOADING...
相关阅读:
- 闻源文化美术总监李鹤鸣:AI绘画在动漫角色辅助设计与绘制、场景美2023-06-28
- JetBrains 编程 IDE 将集成 AI 助手:自家模型 + OpenAI 服务2023-06-28
- ChatGPT创业,朱啸虎和傅盛谁错了?2023-06-28
- 美国国会明确要求职员仅可使用付费版 ChatGPT 以防止泄密2023-06-27
- 人工智能正制造网络垃圾:低质量AI生成网站获广告支撑迅猛发展2023-06-27