微信
投稿

英伟达推出TensorRT 3人工智能推理软件

2017-09-27 08:55 来源:集微网 作者:

9月26日下午消息,在GTCChina大会上,英伟达CEO黄仁勋宣布推出全新的TensorRT3人工智能推理软件。该软件可以大幅提升云端及包括机器人、无人驾驶汽车在内的终端设备的推理性能,并有效降低成本。

据介绍,TensorRT3与英伟达GPU的结合能够基于所有的框架、为诸如图像和语音识别、自然语言处理、视觉搜索和个性化建议等人工智能服务提供快速且高效的推理。此外,TensorRT和英伟达TeslaGPU加速器的速度可达到CPU的40倍,而相较于基于CPU的解决方案,成本仅为其十分之一。

黄仁勋在现场表示,英伟达TeslaV100GPU与TensorRT结合,在处理图像时可以实现7ms延时,处理语音时延时不超过200ms,是标准云服务的理想目标。

英伟达推出TensorRT 3人工智能推理软件

英伟达推出TensorRT 3人工智能推理软件

而根据现场演示,由于GPU与TensorRT结合后的性能加速,一台8GPU的服务器可以替换160台双CPU服务器,或者4个机架。而每台采用TeslaV100GPU的服务器可以节省约50万美元。

黄仁勋表示,英伟达的人工智能计算平台,已经被中国互联网和IT行业的领军企业采用。阿里巴巴、百度、腾讯均已在其云端人工智能基础设施上部署了英伟达的TeslaV100GPU,而华为、浪潮、联想也已经作为OEM厂商,开始生产基于HGX的GPU服务器。

但黄仁勋同时表示,以上成绩都只是关于建立深度学习网络,而网络一旦建成,人工智能推理将会成为下一个重大挑战。

神经网络的应用会接连变革每个行业。人工智能将会注入到2000万台云服务器,以及上亿台汽车和制造机器人当中。最终,数以万计的物联网设备和传感器将能够监测从心率、血压到设备震动状态的一切数据。

而这项变革的背后,是人工智能网络架构的爆炸式增长。黄仁勋在现场介绍表示,Inception计算要求是AlexNet的50倍,DeepSpeech3的计算要求是4年前第一代的30倍,而MoE语言翻译器的计算要求是2年前OpenNMT的10倍。这对使得人工智能深度学习网络基础建成之后,人工智能推理成为该领域的下一项重大挑战。

据现场介绍,目前,阿里云、腾讯、百度云、京东、科大讯飞均已采用TensorRT3,用以支持指数级增长的人工智能工作负载。

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

精彩评论

暂无评论...
验证码 换一张
取 消

热门作者

东方

简介: 天马行空的文字之旅。

邮箱: liutingting03@hczyw.com

简介: 保持期待,奔赴山海。

邮箱: zhuangjiaxin@hczyw.com

松月

简介: 脚踏实地,仰望星空。

邮箱: wuxiaqing@hczyw.com

合作咨询:15889679808               媒体咨询:13650668942

广州地址: 广州市越秀区东风东路745号紫园商务大厦19楼

深圳地址: 广东省深圳市龙华区五和大道星河WORDC座5F506

北京地址: 北京市朝阳区小关东里10号院润宇大厦2层

慧聪电子网微信公众号
慧聪电子网微信视频号

Copyright?2000-2020 hczyw.com. All Rights Reserved
慧聪电子网    粤ICP备2021157007号