3月22日,玩家和AI从业者又爱又恨的老黄带着他的新“核弹”来了。可惜这颗新“核弹”与玩家关系不大,主要面向企业和工业市场。估计与玩家相关的RTX 40系列最早要到9月份才会有消息。 好了,废话不多说,看看老黄这次带出了什么样的“大宝贝”。首先是A100显卡的继任者。新一代计算卡H100登场。H100采用全新的Hopper架构和台积电最新的4nm工艺。与上一代A100相比,各方面的参数都有明显提升。 英伟达的超级服务器芯片 Grace 也再次曝光。与上次给出的数据相比,本次曝光的格雷斯芯片的性能有了惊人的提升。根据发布会的描述,英伟达似乎和苹果走在了同一条路上。使用更多芯片来组装处理器。 除了硬件产品的曝光和发布,NVIDIA还在软件领域带来了很多新的东西,比如Omniverse Cloud,主打云端协同,让多个用户直接参与同一个媒体文件的编辑和渲染在云端。 此外,NVIDIA还展示了多个基于虚拟现实环境的工业和交通仿真案例,以及一套AI驱动的虚拟角色系统。系统可以通过深度学习进行动作训练,训练后无需额外的骨骼动作设计。操作可以根据指令做出相应的动作。这不仅是AI从业者的狂喜,也是电影和游戏从业者的狂喜。 不得不说,老黄这次带来了很多东西,每一个都能给AI等行业的发展带来明显的变化。让我们来详细看看英伟达发布的内容。 H100 和Grace 从去年开始,就有消息称英伟达今年将发布新一代计算卡,并将采用全新的Hopper架构。目前消息是准确的,不过大家都猜测新一代计算卡会采用台积电的5nm工艺,但现在看来,英伟达一步步选择了采用最新的4nm工艺。虽然本质上是5nm+,但就是功耗。它具有更好的性能,还可以集成更高的晶体管。 其实从H100的核心规格来看,不难理解为什么英伟达最终选择了4nm,晶体管集成度高达800亿,比上一代A100多了260亿。核心数增加到16896,这是世界上核心数最多的芯片核心,也是上一代100的2.5倍。 夸张的内核参数提升带来的性能提升也是极其夸张的。根据英伟达官方给出的数据,H100的浮点计算和张量核心计算能力将比上一代提升至少3倍,FP32最高可达60 teraflops/秒。,而上一代 A100 为 19.5 teraflops。 H100也将率先支持PCIe 5.0和HBM3,让内存带宽达到惊人的3TB/s。老黄说,目前全球网络流量只有20台H100可以处理。虽然听上去有些夸张,但确实反映了H100夸大的性能参数。 强大的性能也伴随着夸张的功耗。NVIDIA给出的H100功耗高达700W(真正的“核弹”显卡),相比上一代A100。功耗只有400W,换来的却是两倍的功耗。3倍的性能提升整体来说不算亏。 H100还针对AI训练中用到的模型等进行针对性优化,配备Transformer优化引擎,使大型模型的训练速度可以提高到原来的6倍,大大减少了大型模型所需的训练人工智能模型时间,这个功能也呼应了下面将要讨论的AI分身系统。 在 NVIDIA 给出的测试数据中,训练一个 1750 亿参数的 GPT-3 模型将时间从原来的一周缩短到仅 19 小时,一个 3950 亿参数的 Transforme 模型只需 21 小时即可完成。训练,效率提升近9倍。 虽然参数看起来很不错,但实际表现还有待后续实际测试结果来揭晓。至少从RTX 30系列和A100的体验来看,最终的实际性能提升可能在2倍到2.5倍之间。,实现3倍的可能性不大,但即使只有2倍,也已经相当不错了,至少在AI方面,已经彻底碾压了AMD的计算卡。 此外,H100还引入了NVIDIA最新的NVIDIA NVLink第四代互连技术,可以进一步提升多GPU串连的效率。在NVIDIA给出的数据中,串联后的I/O带宽可以扩展至900GB/s,比上一代提升50%。 再来看看英伟达的新“玩具”Grace,这是英伟达为服务器业务准备的超级服务器芯片。系列产品。Grace 芯片采用了最新的 Arm V9 架构,Nvidia 以此为基准构建了两款超级芯片——Grace Hopper 和 Grace CPU 超级芯片。 其中,Grace Hopper 由一个 Grace CPU 和一个采用 Hopper 架构的 GPU 组成。两者将组成一个完整的计算系统。只需要一个芯片就可以构建一个强大的计算服务器。芯片串联起来形成更大的计算阵列。 Grace CPU超级芯片由两颗Grace CPU组成,它们通过NVIDIA NVLink-C2C技术互连,形成一个内置144个Arm核心和1TB/s内存带宽的巨型芯片(Grace CPU Ultra)。 说实话,英伟达的 Grace CPU 超级芯片很难不让人联想到苹果在春季发布会上发布的 M1 Ultra。它同样基于 Arm 架构,同样由两颗芯片组成。它也有夸张的特点。内存带宽和性能。 显然,芯片互连与组装技术已成为行业趋势之一,AMD也透露类似技术的CPU正在研发中,最早将于2023年与大家见面。只能说性能发展单个芯片现在正在接近极限。如果想要有更大的提升,可能不得不使用类似的互连技术进行芯片堆叠。 不过,Grace CPU 超级芯片的功耗并不低。NVIDIA官方给出的数据是500W,已经远超传统x86架构CPU。当然,考虑到格雷斯CPU超级芯片的夸张表现:SPECrate跑分740分,比第二名高出60%,这样的功耗也不是不能接受的。 显然,在 Arm 服务器领域,英伟达的野心非常大。 英伟达的虚拟世界 除了一堆高性能硬件,NVIDIA这次还展示了很多软件演示案例,包括使用H100等硬件模拟虚拟现实环境进行各种测试和模拟。在英伟达的演示中,未来企业可以通过强大的英伟达硬件搭建逼真的虚拟测试环境,在其中测试自动驾驶、智能工厂运营等。 通过使用虚拟测试环境,研究人员可以更轻松地测试自动驾驶在面对各种突发事件时的反馈,并在测试过程中直接定位问题,降低整体测试成本。此外,可以构建1:1的“数字工厂”,提前模拟运营,寻找提高效率,发现可能出现的问题,降低工厂正式运营后出现问题的概率。 英伟达将这组应用称为“数字孪生”,可以大大减少自动化工厂和自动驾驶方面的研究和测试投入。 Omniverse Cloud 是 NVIDIA 推出的全新云创建服务。通过Omniverse Cloud,用户可以随时随地访问和编辑大型3D场景,无需等待大量数据的传输,还可以让用户直接在线协作构建3D模型。 过去,3D模型和3D场景的协同构建需要在服务器上进行。Omniverse Cloud上线后,相关创作者可以通过任何支持Omniverse Cloud的终端直接访问协作空间并参与其中。大大提高了创作者的反应速度和工作自由度。 此外,NVIDIA还为创作者准备了第二个惊喜,一套AI驱动的虚拟角色系统,可以让AI在短时间内完成训练,学习各种指令对应的动作。比如一个简单的砍杀动作,在正常的制作过程中,动作架构师首先需要一步步调整动作骨架(俗称K帧),然后放到场景中进行测试。整个过程需要很多时间。并且每个不同的动作都需要重新调试。 借助这套AI虚拟角色系统,当你想让虚拟模型做出斩击动作时,只需要一个命令,AI就会从学习到的动作中找出关联的动作并自动运行,直接保存储蓄。大量的时间和人力,对于游戏开发者和视觉特效创作者来说,这个系统可以让他们将更多的精力集中在其他地方。 虽然 NVIDIA 的发布会并没有过多提及元宇宙,但从硬件到软件,都是未来构建元宇宙的基础。元宇宙目前无法成为现实的主要原因有两个。一是硬件性能无法满足我们的需求,二是软件领域还不够成熟,无法提供实时的真实环境模拟。技术的基础。 在此之前,我们首先需要的是更强大的计算硬件和更智能的人工智能系统。Nvidia 的 H100,虚拟现实环境和 AI 虚拟角色系统的出现,将使我们离真正的元宇宙更近一步。 查看更多 —- 编译者/作者:元宇宙MetaCN 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
英伟达的春季发布给元宇宙带来了希望
2022-03-26 元宇宙MetaCN 来源:区块链网络
LOADING...
相关阅读:
- 宏观到微观:微处理器短缺2022-02-01
- 全球芯片短缺对加密货币行业产生影响,ASIC供应正在萎缩2022-01-30
- 英特尔的低压比特币挖矿芯片对未来意味着什么?2022-01-19
- 英特尔将推出用于比特币挖矿的低功耗芯片2022-01-19
- 算法将取代热门专业的人,台积电将增加芯片产量等来自AI世界的消息2022-01-16