日本富士通(Fujitsu)也正投入全球人工智能(AI)技术开发竞赛,目前正在开发一款名为“DeepLearningUnit”(DLU)的AI专用微处理器,宣称这款微处理器与竞争对手产品相较,可提供每瓦单位10倍更佳的效能表现,首款DLU微处理器预计将在富士通2018会计年度内推出,是否能对市场领先者NVIDIA形成挑战压力,值得观察。
根据Top500网站报导,富士通自2015年以来便投入DLU芯片开发工作,不过此前富士通很少对外透露这款微处理器的设计细节,直到2017年6月举办的“ISC2017”大会上,富士通AI基盘事业本部(AIPlatformDivision)资深主任丸山拓巳(TakumiMaruyama)才对外透露该公司投入AI及高效能运算(HPC)领域的发展成果,首度较深入介绍DLU微处理器运作细节。目前丸山便正从事于DLU芯片开发专案。
富士通
丸山指出,DLU微处理器与其他多款专为深度学习(DL)所打造的处理器相同的是,均高度仰赖于低精密度运算在神经网络处理上优化效能及能源效率,值得注意的是,DLU微处理器支援FP32、FP16、INT16以及INT8数据类型。在最高等级上,DLU微处理器是由若干“深度学习处理单元”(DeepLearningProcessingUnits;DPU)所组成,透过一个高效能构造进行互相连结,或可将这些DPUs视为是深度学习的核心。
个别的主核心管理在DPU上的执行,并负责在DPU与芯片内建存储器控制器之间协调存储器近用任务。值得注意的是,每个DPU均是由16个深度学习处理元素(DPE)所组成,这也是实际数值运算进行之处;每个DPE则是由8个SIMD执行单位连同一个非常大型的注册档(RegisterFile;RF)所组成,此RF完全受到软件的控制。
另外,DLU封装将包含一定数量的第二代高频宽存储器(HBM2),这款存储器能够高速提供处理器所需数据,该DLU封装也将包含一个用于透过Tofu互联技术与其他DLU微处理器相连结的介面,富士通预计2018年度将推出DLU微处理器,且将先以协同处理器形式问世,由一组中央处理器(CPU)来驱动DLU微处理器。
自下一代DLU微处理器技术开始,富士通计划将DLU微处理器以某种形式嵌入一组CPU中,不过富士通仍未透露此下一代技术何时将推出。借由上述芯片外(off-chip)网路设计,富士通设想未来能够以DLU微处理器打造非常庞大的系统,目标创建可扩充的平台供处理最大且最复杂的深度学习问题。
富士通的最终计划目标,是要除了拥有面向一般市场的SPARC处理器产品线外,也要打造一个DLU微处理器产品线。
富士通了解到AI与机器学习(ML)在不久的将来可望主导全球科技应用领域,如果不跟进恐面临在未来遭边缘化的危机,目前则是由NVIDIA居于这市场的领先地位,但英特尔(Intel)、AMD(AMD)及英国AI芯片硬件设计新创企业Graphcore等厂商,均在发展自有AI芯片技术上积极投入,预计未来6~12个月可能将相继推出新产品线,届时也将成为富士通DLU微处理器的新竞争对手。
NVIDIA在这块领域具备的优势,在于该公司为自有绘图芯片(GPU)开发的深度学习软件支援,能够让NVIDIA在AI芯片市场上取得较大领先优势,用于处理神经网路的软件架构数量不仅多且仍在增长,但NVIDIA能够完全提供支持,反观微软(Microsoft)、CNTK、Theano、MXNet、Torch、TensorFlow以及Caffe等厂商最多只能支持主要的软件架构部分。
即使如此,对于拥有较庞大资金规模的厂商如富士通及其他厂商来说,这块领域虽然已有大量深度学习软件已经被写入,但相对于未来几年可能发展的数量来说仍是九牛一毛,这意谓在这块领域未来几年仍有容纳其他新进竞争厂商的许多空间,这让富士通等新进厂商仍有抢食这块市场商机的机会。
精彩评论