Google DeepMind公布加速晶片设计的AI模型,已设计3代TPU

图片来源: 

Google

Google DeepMind部门上周公布优化晶片设计的AI模型,正名为AlphaChip。

2020年DeepMind团队在科学期刊《自然Nature》上公布用以设计晶片布局的增强式学习(reinforcement learning)方法,之后也将之在GitHub上开源。上周该团队发表了《自然期刊》补遗,补充说明方法及对晶片设计的影响。Google本周公布该模型正式名称AlphaChip。Google说,自2020年来,该公司已经用AlphaChip模型设计了3代自己的AI加速器TPU,这些晶片让该公司可以根据Google Transformer架构大规模扩大AI模型。

AlphaChip在一个空白晶片上,每次舖设一组电路,直到完成所有元件,然后根据最后电路布局的品质获取回馈。新的边缘式图像神经网路让AlphaChip得以学习互联的晶片元件之间关系,发展出泛化到其他晶片的方法,借此逐渐改善每一代布局设计。

设计TPU布局阶段,经过预训练之后,Google在最新TPU block上执行AlphaChip产生布局设计。由于运用增强式学习,AlphaChip晶片布局能力愈来愈好也愈快,和人类一样。Google说,近三代TPU,从TPU v5e、TPU v5p到第6代TPU的Trillium,AlphaChip的晶片布局品质更提升,整体布局规划贡献比例也更多,布局的区块(block)由10增加为25,且减少的线长(wirelength)比例,也从3.2%提升为6.2%,证明能加速设计周期,催生更高效能的晶片。

AlphaChip除了用于设计如TPU等专用AI加速器,也为Alphabet生成了其他晶片,像是第一块通用型Arm-based资料中心处理器的Google Axion Processor。使用AlphaChips设计的外部单位则包括联发科,它扩展AlphaChip的设计来设计其三星手机使用的5G晶片天玑(Dimensity)系列。

现在AlphaChip涉入的晶片设计阶段也更广,现在扩及逻辑合成(logic synthesis)和巨集选择(macro selection)。

为了方便开发人员试用AlphaChip,DeepMind也公布预训练的检查点(checkpoint)作为共享资源。