英特尔:企业未来资料中心设计将因生成式AI带来新变革,液体冷却技术和配备更高记忆体频宽的伺服器系统是发展关键

若以单一CPU插槽的Emerald Rapids伺服器来举例,英特尔资料中心平台工程与架构事业群总经理Zane Ball表示,这种伺服器适合处理100亿参数的模型推论任务,他强调,虽然执行更多参数的模型是有可能,但考虑到系统的效能, 100亿个参数会是较为合理的数量。

图片来源: 

摄影/余至浩

随著生成式AI迅速崛起,企业开始思考未来资料中心设计,来因应生成式AI应用发展,甚至一些科技巨头已经开始打造AI资料中心。例如脸书Meta正在打造下一代AI资料中心,该资料中心将具有液冷式人工智慧硬体,以及高效能人工智慧网路,将数千个MTIA人工智慧晶片连结在一起,以建立起资料中心规模的人工智慧训练丛集,支援未来10年生成式人AI应用研究。

英特尔资料中心平台工程与架构事业群总经理Zane Ball在近日的英特尔创新日会后一场媒体活动上表示,生成式AI的兴起,对于资料中心带来了重要变革之一,将加速企业资料中心对于液体冷却(liquid cooling)技术的采用。

Zane Ball表示,执行生成式AI应用对于系统能耗负担很大,因此需要新的硬体散热机制。他认为,越来越多的企业将在新资料中心中导入液体冷却技术,来协助伺服器系统的散热,不仅是为了节省能源,还为了支援更高能耗的加速运算元件所需。他认为这有助于加速企业资料中心采用液体冷却技术。

但他直言,要实现实用且易于部署的液体冷却技术,需要产业间的合作,「虽然这需要时间,但这件事让人感到兴奋,也代表新机会。」他说。

不只是冷却散热机制的改变,未来伺服器硬体设计需要有新的变革。为了提升伺服器所能处理的推论模型参数,Zane Ball指出,未来将持续改进Xeon处理器在AI运算效能方面。他表示,过去英特尔已经取得了显著的进步,例如与第三代Xeon处理器相比,第四代Xeon处理器的AI处理效能提升多达14倍。因此未来将持续发展能够支援更大参数的模型、更高记忆体频宽的伺服器系统,「这正是我们未来CPU发展的方向。」

英特尔将在12月14日推出代号为Emerald Rapids的第5代Xeon伺服器处理器,也是针对企业资料中心AI应用需求所设计,采用和前一代相同节点,但核心数达到64核,而且具备更快的记忆体传输速度。

从英特尔对于资料中心AI系统的分类,也能够反映出不同型态伺服器,能够支援处理的推论模型参数的规模。

若以单一CPU插槽的Emerald Rapids伺服器来举例,Zane Ball也表示,这种伺服器适合处理100亿参数的模型推论任务,他强调,虽然执行更多参数的模型是有可能,但考虑到系统的效能, 100亿个参数会是较为合理的数量。