微信
投稿

英伟达花30亿美元打造AI芯片 8块售14.9万美元

2017-05-11 14:27 来源: 网易科技报道 作者:

英伟达花30亿美元打造AI芯片 8块售14.9万美元

5月11日消息,据国外媒体VentureBeat报道,英伟达CEO黄仁勋今天发布了一款针对人工智能应用的雄心勃勃的新处理器:Tesla V100。

该新芯片拥有210亿个晶体管,性能比英伟达一年前发布的带150亿个晶体管的Pascal处理器强大得多。它是一款很大的芯片——815平方毫米,大小约为Apple Watch智能手表的表面。它拥有5120个CUDA(统计计算设备架构)处理核心,双精度浮点运算性能可达每秒7.5万亿次。

作为全球最大的图形芯片和AI芯片厂商,总部位于加州圣克拉拉的英伟达在加州圣何塞举行GPU技术大会,并发布了上述产品。

黄仁勋称英伟达花了30亿美元打造这款芯片,基于8块Tesla V100搭建的DGX- 1也开始预售,价格为149000美元,预计在今年第三季度交付。

在介绍该款芯片之前,黄仁勋谈到了AI近年的发展史。他指出,深度学习神经网络研究大约5年前开始带来成果,那个时候研究人员开始利用图形处理器(GPU)来处理数据,同时利用它们来快速训练神经网络。自那时起,深度学习技术呈现加速发展。今年,英伟达打算培训10万个开发者使用该项技术。

Tesla V100另称为Volta,针对深度学习而打造,Tensor性能可达每秒120万亿次浮点运算。它能够每秒传输300GB的数据,速度相当于时下其它处理器的20倍。该款芯片由三星代工生产。

该芯片针对深度学习训练的Tensor浮点运算性能达到去年发布的Pascal处理器的12倍。这种处理速度很有必要,因为深度学习算法的进展令人惊叹。

2015年,微软打造了一个名为ResNet的深度学习项目,该项目非常复杂,需要每秒7百亿亿次浮点运算的处理能力。百度2016年打造的Deep Speech 2 AI需要每秒20百亿亿次浮点运算的处理能力,谷歌2017年打造的NMT则需要每秒105百亿亿次浮点运算的处理能力。

微软正在开发一个新的ResNet版本,ResNet会同时使用64个Tesla V100芯片来进行处理。目前还不清楚Tesla V100批量出货的时间。

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

精彩评论

暂无评论...
验证码 换一张
取 消

热门作者

东方

简介: 天马行空的文字之旅。

邮箱: liutingting03@hczyw.com

简介: 保持期待,奔赴山海。

邮箱: zhuangjiaxin@hczyw.com

松月

简介: 脚踏实地,仰望星空。

邮箱: wuxiaqing@hczyw.com

合作咨询:15889679808               媒体咨询:13650668942

广州地址: 广州市越秀区东风东路745号紫园商务大厦19楼

深圳地址: 广东省深圳市龙华区五和大道星河WORDC座5F506

北京地址: 北京市朝阳区小关东里10号院润宇大厦2层

慧聪电子网微信公众号
慧聪电子网微信视频号

Copyright?2000-2020 hczyw.com. All Rights Reserved
慧聪电子网    粤ICP备2021157007号