虽然苹果和三星都拥有自主开发的应用处理器,锁定了高端智能手机市场,但是联发科(MediaTek)正在寻求在智能手机市场的反弹,在本周的2018世界移动通信大会上推出了HelioP60芯片组。
联发科的计划是重新进入与高通竞争的中高端智能手机市场。
联发科技将HelioP60视为“首款采用多核AI处理单元(移动APU)和联发科NeuroPilotAI技术的SoC平台”。
联发科的举动显示了该公司在行业智能手机大战中,策略重点转向移动人工智能的巨大变化。目前各种芯片供应商都在竞相将神经网络引擎用于手持设备上。目标很简单。他们希望开启人工智能体验——语音用户界面、人脸解锁、AR等等——在客户端设备上处理更快、更好,无论有没有网络连接。
LinleyGroup高级分析师MikeDemler表示:“我们在去年才看到了第一批带有嵌入式神经引擎的智能手机处理器,如苹果A11、华为麒麟970、高通Snapdragon835和联发科HelioX30等旗舰处理器。”
Demler表示:“我们对联发科将在更低层添加神经引擎并不感到意外,但有趣的是,他们正在使用比其旗舰产品X30更强大的核心来实现这一点。”
换句话说,一个由中国手机制造商推动的、充满活力的中端智能手机供应商社区正在跃跃欲试,他们希望尽快赶上移动AI这股趋势。
新高度
联发科称其为“新高级”是指“以中档价格提供卓越性能和功能的设备”。联发科销售总经理FinbarrMoynihan解释说,“新高度”是目前智能手机的重要动作,像Oppo、Vivo、联想等中高端玩家都渴望缩小与顶级竞争对手的差距,希望在应用、功能和AI方面取得重大飞跃。
联发科告诉我们,2017年全球智能手机出货量的48%来自中国OEM厂商,主要针对新兴市场。联发科援引TrendForce报告指出,2017年中端消费者品牌出现大幅增长,小米的智能手机产量增幅高达76%,而Transsion、OPPO和Vivo也有大幅增长。
HelioP60在八核CPU中配备了4个ARMA73处理器和4个ARMA53处理器。基于big.LITTLE的8核设计,联发科技宣称与前代产品HelioP23和HleioP30相比,CPU性能提升了70%。通过使用最高800MHz的新型MaliG72GPU,P60还将GPU性能提高了70%。
联发科的神经网络引擎
然而,让HelioP60实至名归的是其内置的NeuroPilotAI平台、桥接CPU、GPU和板载AI加速器。联发科的人工智能框架可以通过协调SoC内CPU、GPU和AI加速器计算工作负载来管理异构AI计算架构,最大限度地提高性能和能效。
联发科已经证实,P60在其AI加速器中集成了CadenceVisionP6内核。
CadenceVisionP6(来源:Cadence)
与联发科技旗舰产品HelioX30——使用CadenceVisionP5,每秒70GMAC(8位)——相比,HelioP60每秒处理性能为280GMAC。Demler表示:“所以在处理器整体性能上降低了一层,但同时将神经引擎性能提高了4倍。”
当被问及对比HelioP60神经网络引擎性能时,Demler说:“华为的麒麟970可以达到?1TMAC/s(FP16),因此在更高的分辨率下它的神经网络性能是P60的4倍。在280GMAC/s下,P60与苹果A11的很接近,达到300GMAC/s。”
缺乏AI基准
然而,我们咨询的大多数分析师都认为,深度学习加速器基准的缺乏,使得很难做出有任何意义的比较。Demler称这是“一个开放的大问题”,他说移动AI这个泥潭可能很容易导致我们陷入“GOPS/TOPS营销炒作之战”。
TiriasResearch首席分析师JimMcGregor表示赞同。“这是一个令人困惑的话题,因为没有什么细节和基准。联发科和其他公司使其听起来像是无所不能的人工智能解决方案,”但通常并非如此,McGregor补充说。
例如,联发科的P60中使用的CadenceVisionP6内核是针对计算机视觉应用进行了优化,而非通用神经网络,Demler说。
正如McGregor所解释的,“首先,你需要了解大多数AI处理器是什么。”例如,联发科、苹果和华为称其解决方案为“专用”,意味着使用单个IP块进行AI加速。“在大多数情况下,这意味着从其他方——如Cadence或Ceva——那里获得的IP块许可。这种IP块支持可配置的神经网络,但有一些限制。可是没有人能确切地说出这些限制是什么。”
所以,显然地,在应用处理器内部放置一个神经网络引擎并不是故事的结尾。正如McGregor指出的那样,新神经网络的开发和训练仍然需要在数据中心进行,必须依赖更多高精度、强大的训练处理器。
如果应用开发人员和OEM厂商想要利用智能手机应用处理器内部的神经引擎,他们需要一个与底层硬件挂钩的软件框架。“所有领先的移动处理器设计公司(高通、联发科、华为、苹果)现在都提供神经网络SDK,”Demler观察到。但他们都需要支持像Caffe和Torch这样的流行培训框架。
对联发科来说,联发科提供了被称为NeuroPilotAISDK的框架,该框架可以让应用开发人员和OEM厂商“深入到硬件,看AI软件如何在CPU、GPU和专用AI加速器上运行”,Moynihan这样表示。
与此同时,应用开发人员和OEM厂商也需要能够“查找并查看Android网络API(AndroidNNAPI)的内容”,Moynihan补充道。Google为Android机器学习开发了AndroidNNAPI和运行时引擎。“联发科的NeuroPilotSDK完全符合AndroidNNAPI,”Moynihan补充道。
AndroidNeuralNetworksAPI的系统架构(来源:Google)
在部署能够让智能手机处理器运行AI应用的方法中,高通的方法似乎有些不同。
McGregor说,高通的解决方案是不同的,因为“他们已经在芯片上使用了多种资源,包括HexagonDSP、AdrenoGPU和KryoCPU内核。”
然而他补充说:“没有可用的基准,不可能确定哪种方法更好,但高通模型确实提供了更高的灵活性。”
AI软件之战
无论底层硬件如何,毕竟最关键的还是能够购在任何智能手机上体现AI体验差异化的软件。
McGregor说:“现在,这些应用正瞄准着手机上的常见功能,例如拍照和数字助理。但是,通常由第三方软件开发人员来开发和训练用于手机上的这种模型。”
他指出,“在有限的情况下,有些模型或库是可用的。高通围绕图像识别开发了一些库,三星主要围绕拍照,我相信苹果也正在开发自己的模型。“
在其他情况下,这取决于应用开发人员,这是一个很大的限制,McGregor指出。“很多应用开发人员并不习惯于使用深度学习,也无法访问深度学习所需的大型数据中心,”他说。
LinleyGroup的Demler在他最近的微处理器报告中也对人工智能软件开发提出了警告。“处理器架构的多样性给Android应用开发人员带来了挑战,因为即使在缺乏专用深度学习加速器的设备上,这些应用也必须能够运行。”而另一方面,iOS应用开发人员只需要支持Apple设计的一些处理器就可以了。
TiriasResearch首席分析师KevinKrewell也警告说:“我看到的最大问题是,每个芯片和IP供应商都在以不同的方式做机器学习。ARM可能有最佳的机会,在一个IP上对多个厂商实施标准化。
精彩评论