AMD执行长苏姿丰在美国旧金山正式发表第5代EPYC处理器,最高拥有192个核心。
AMD
在美国旧金山举行的AMD Advancing AI全球发表会中,AMD发表资料中心CPU、GPU、网路及AI PC最新产品,其中资料中心CPU发表了代号为Turin的第5代EPYC处理器9005系列,新的伺服器专用处理器采用Zen 5架构,核心数从8到192核心,搭载新处理器的伺服器预计2025年第1季推出。同场发表的还有AI资料中心专用GPU,Instinct系列加速器,包括Insinct MI325X及明年将推出的MI350系列。
AMD执行长苏姿丰在发表会中表示,在快速发展的AI应用,AI正从分析式AI应用到生成式AI应用,并向代理型的AI应用发展,AMD的策略是在企业的各种AI工作负载提供对应的运算引擎,包括AMD EPYC处理器,以及Instinct系列加速器。
首先在资料中心伺服器,苏姿丰指出,AMD EPYC处理器的市场营收占比不断增加,从2018年营收占比只有2%,目前营收占比已达到34%,目前仍在成长中,迄今已有超过350款OEM平台,超过950个云端执行个体采用EPYC处理器。
AMD正式发表代号Turin的第5代EPYC伺服器专用处理器,采用3奈米及4奈米制程,内含1,500亿个电晶体,核心数从8个核心到最多192个核心,功耗从最低155瓦到500瓦,时脉达5GHz;新一代EPYC处理器相容于第4代EPYC处理器Genoa的SP5平台,并支援12Ch DDR5-6400记忆体,在I/O方面,采用trusted I/O技术,支援机密运算。
第5代EPYC处理器支援Scale-up向上扩充及Scale-out横向,其中Scale-up版本内建16个Zen 5 CCDs,拥有128个核心、256个执行绪,而Scale-out版本内建12个Zen 5c CCDs,虽然CCDs数量比较少,但是最多有192个Zen 5c核心、384个执行绪。
回顾EPYC处理器从2017年的第1代EPYC,到2024年的第5代,处理器内的CPU核心数从最初的32个核心,到现在的192个核心,核心数增加6倍,效能方面,第5代EPYC处理器比第1代EPYC提升11倍的效能。
AMD也从不同角度比较新一代EPYC处理器所能带来的效益,例如在虚拟化的软体授权成本方面,以同样64个核心的第5代EPYC处理器9575F和第4代EPYC的9554、英特尔第5代Xeon 8592+作比较,第5代EPYC处理器9575F的单一核心效能,较AMD前一代EPYC,英特尔第5代Xeon处理器效能分别高出1.2倍、1.6倍;单单以第5代EPYC处理器和竞争对手英特尔的产品相比,相当于在相同虚拟化软体授权成本下,效能多出60%。
在AI及推论效能方面,相同处理器在机器学习及端到端AI,第5代EPYC和竞争对手相比拥有3倍、3.8倍的AI效能。
第5代EPYC处理器更多的CPU核心,在资料中心有限的空间、供电下,可减少伺服器数量,AMD以1000台老旧的2P英特尔Xeon Platium 8280伺服器为例,如果汰换为现代伺服器,采用第5代EPYC处理器的伺服器,伺服器数量可减少至131台,相当于7:1伺服器数量整并比例,减少伺服器数量,意谓著降低TCO总持有成本,减少伺服器用电。
同步发表Instinct MI325X加速器,明年下半年再推MI350
在资料中心专用GPU方面,去年夏天AMD发表Instinct MI300系列,包括APU设计的MI300A,以及MI300X,AMD也推广ROCm开放软体平台,扩大ROCm对AI函式库的支援,向开发社群招手,扩大Instinct加速器的生态系。
苏姿丰表示,ROCm经过不断的调整,在推论及训练效能已提升2倍效能,支援的模型数量上,透过和Hugging face深化合作,现在支援的模型数量已超过1百万个。此外,也和AI开发社群、新创深化合作,例如PyTorch、ONNX、TensorFlow,扩大AI生态系统。
今年AMD更新Instinct系列加速器,发表MI325X加速器,采用CDNA 3架构,内建更大的256GB HBM3E记忆体,记忆体频宽提高到每秒6TB,FP16效能测试下,可达到1.3PF,在FP8效能测试下,可达到2.6PF。
AMD 以MI325X和Nvidia H200 HGX相比,MI325X最大可支援2TB HBM3E,为H200HGX的1.8倍记忆体容量,记忆体频宽最多可每秒48TB,为H200的1.3倍,在AI模型训练及推论效能也有所提升。MI325X并未公布价格,但将在今年第4季开始生产,相关系统将在明年第1季推出,根据AMD公布的资料,Dell、技嘉、HPE、Lenovo、Supermicro将会采用。
根据AMD的Instinct系列产品规画,明年下半年将会发表MI350系列,MI350将会采用3奈米制程,支援FP4及FP6资料类型,并且有别于先前采用的CDNA 3架构,MI350开始采用新的CDNA 4架构,和旧架构相比,推论效能可望达到35倍之多。
AMD展示Instinct MI355X在FP16及FP8测试下,其效能表要比MI325X高出1.8倍,在FP6及FP4,可达到9.2PF。
看好资料中心AI加速器市场持续成长,年复合成长率超过6成,可望从2023年450亿美元成长到2028年的5,000亿美元,AMD展现持续投入资料中心GPU市场的决心,除了明年下半年的MI350系列,先预告2026年将推出MI400系列,采用下一代CDNA架构。
因应资料中心处理AI工作负载的需求增加,除了发表新一代EPYC处理器,以及Instinct系列AI加速器,资料中心网路产品方面,AMD发表第3代P4引擎,每秒处理多达1.2亿个封包,400GB/s传输速度。
今天发表采用新的P4引擎资料中心DPU产品,包括AMD Pensando Salina 400,以及另一款也采用P4引擎的Pensando Pollara 400,Pollara支援Ultra Ethernet Consortium联盟即将推出的UEC1.0标准,支援可编程的硬体Pipeline,提供最高6倍效能加速。