英特尔宣布,美国丹佛 Super Computing 年度展会(SC23)展示 AI 加速的高效能运算(HPC),产品组合横跨 Intel Data Center GPU Max 系列、Intel Gaudi2 AI 加速器、Intel Xeon 处理器,皆展现 HPC 和 AI 负载的领先效能。
英特尔也分享与美国阿贡国家实验室(Argonne National Laboratory,ANL)合作 Aurora 生成式 AI 计画的相关进展,内容有 Aurora 超级电脑参数量高达 1 兆的 GPT-3 大型语言模型(LLM)最新发展,这些进展获益於 Max 系列 GPU 独特架构和 Aurora 超级电脑的系统能力。英特尔和阿贡国家实验室合作,透过 Aurora 早期科学计画(Aurora Early Science Program)和 Exascale 运算专案(Exascale Computing Project,ECP)的各项应用,加速科学发展,并同步揭示 Intel Gaudi3 AI 加速器和 Falcon Shores 的发展蓝图。
英特尔企业副总裁暨资料中心 AI 解决方案总经理 Deepak Patil 表示,英特尔持续致力於提供创新技术解决方案,以满足 HPC 和 AI 社群的需求。Xeon CPU、Max GPU 和 CPU 卓越的效能表现都有助於推进相关研究和科学发展,搭配 Gaudi 加速器更能全面展现出英特尔的领先技术能够为客户带来更值得信赖的选择,以满足多元的工作执行需求。
英特尔表示,针对科学研究的生成式 AI 及最新效能和基准测试结果,突显出英特尔提供的客制化解决方案足以满足 HPC 和 AI 客户的特定需求。英特尔透过软体定义的方式,采用 oneAPI 规范与 HPC 和 AI 增强工具套件,协助开发人员跨越架构框架,无缝转移程式码,加速科学研究。此外,Max 系列 GPU 和 CPU 也将部署在多组即将上线的超级电脑。
阿贡国家实验室分享了以 Aurora 超级电脑推动科学研究生成式 AI 计画的进展。透过 Aurora 生成式 AI计画,阿贡国家实验室、英特尔及合作夥伴将携手创建最先进的 AI 模型,奠定科学发展基础。这些模型将使用超过 1 兆参数规模的科学文本、程式码和科学资料集进行训练,涵盖多门科学领域。生成式 AI 计画将利用Megatron和DeepSpeed的基础技术,服务生物、癌症研究、气候科学、宇宙科学和材料科学等多门科学领域。
Intel Max 系列 GPU 架构和 Aurora 超级电脑系统拥有优秀的性能,只需 64 节点即可高效率处理 1 兆个参数的模型,远低於一般所需。阿贡国家实验室以 256 个节点处理四个实例,展现出 Aurora 平行处理多实例的能力;也能够加速训练扩展未来超过 1 万节点上数兆 token 的参数模型。
英特尔 2024 年推出 Intel Gaudi3 AI 加速器。Gaudi3 AI 加速器将基於与 Gaudi2 相同的高效能架构,预计提供 4 倍运算能力(BF16)、双倍的网路频宽,以实现更高的横向扩展效能,以及 1.5 倍内嵌 HBM 记忆体,轻松满足对 LLM 高效能、高效率运算不断增长的需求,且同时兼顾效能。
英特尔公布 2024 年软体开发工具套件的功能,推动 oneAPI 多架构程式支援的开放式软体开发。新工具可协助开发人员在英特尔 CPU 和 GPU 扩展新的 AI 和 HPC 功能,涵盖范围更广,包括使用标准 Python 实现数位负载更快的效能和部署,以及编译器增强功能,交付近乎完整的 SYCL 2020,提高生产力和程式码卸载。在德州先进运算中心(TACC)宣布 oneAPI 卓越中心将专注於开发及优化地震成像基准程式码的计画。全球共 32 座英特尔 oneAPI 卓越中心共同推动此软体及硬体创新与研究的产业发展。
英特尔投资 AI 和 HPC,突显市场强劲动能。采用英特尔 Max 系列 GPU 和 CPU 的新超级电脑部署包括 Aurora、Dawn Phase 1、SuperMUC-NG Phase 2、Clementina XX1 等系统,以及一台以 Stability AI 为主要客户,采用英特尔 Gaudi2 加速器新系统的大型 AI 超级电脑。而这些动能将奠定英特尔对於 AI 和 HPC 的次世代 GPU Falcon Shores 研发基础。Falcon Shores 将采用 oneAPI 开放标准建构的单一 GPU 程式设计介面,应用在 Intel Gaudi 和 Intel Xe 的 IP。让目前建构在 Intel Gaudi AI 加速器及 Intel Max 系列 GPU 的应用程式,未来也能轻松转移到 Falcon Shores。
(首图来源:Flickr/Kazuhisa OTSUBO CC BY 2.0)