英伟达CEO黄仁勋SIGGRAPH演讲:聚焦生成式AI软硬件革新
AI导读:
英伟达CEO黄仁勋在SIGGRAPH演讲中,介绍了GH200系统、Omniverse平台、Hugging Face合作及AI工作台等软硬件服务,聚焦生成式AI技术革新。
北京时间周二晚间,英伟达联合创始人兼CEO黄仁勋时隔五年重返SIGGRAPH舞台,发表了主旨演讲,聚焦生成式AI浪潮下的硬件与软件服务革新。SIGGRAPH作为计算机图形学的顶级盛会,再次见证了黄仁勋的科技愿景。
黄仁勋深情回顾了2018年在SIGGRAPH发布RTX平台的“赌命时刻”,如今,他展示的Grace Hopper芯片产品已无法手持,彰显了技术迭代的速度。


(来源:直播视频)
黄仁勋重点介绍了GH200系统,搭载最新HBM3e技术,预计2024年二季度交付。该系统在双路Grace Hopper芯片配置下,可达到144个Arm Neoverse核心和282GB HBM3e内存,提供3.5倍内存容量和3倍带宽。
英伟达还展示了如何利用NVLink等技术构建为生成式AI打造的超级计算机系统,图片展示了系统的震撼规模。





此外,GH200系统能够无缝连接256个Grace Hopper超级芯片,提供1 EFLOPS的AI算力和144TB高速存储。黄仁勋通过对比指出,投入1亿美元构建数据中心,选择GH200可获得比x86 CPU高出12倍的AI算力,且能耗更低。
在演讲中,黄仁勋还提及了Nvidia的Omniverse平台,展示了其在比亚迪(腾势汽车)广告中的应用案例,通过Omniverse创建汽车“数字孪生”,实现广告材料的实时修改。

同时,英伟达宣布与Hugging Face合作,推出AI模型训练服务,背后由英伟达DGX云提供支持。

英伟达还推出了AI工作台,帮助开发者在不同设备间同步开发大模型,实现从PC到数据中心的无缝扩展。

英伟达发布了新版本的企业软件平台NVIDIA AI Enterprise 4.0,为企业提供生成式AI所需工具。
针对本地算力需求,英伟达发布了新工作站产品,支持四张NVIDIA RTX 6000显卡,提供5,828 TFLOPS AI算力和192GB显存,微调GPT-3模型仅需15小时。

英伟达还推出了新显卡L40S,与A100相比,生成式AI推理性能提高最多1.2倍,训练性能提高最多1.7倍,单精度浮点性能近5倍于A100。

黄仁勋展示了新的OVX服务器产品,最多可装8张L40S显卡,微调GPT-3模型仅需7小时。
最后,黄仁勋宣布英伟达将加速OpenUSD技术的采用,推出ChatUSD,帮助开发者利用自然语言调整3D场景。


(文章来源:财联社)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

