微信
投稿

马斯克再提醒:不受监管的AI比核武器更危险

2017-08-14 09:18 来源:网易科技 作者:

8月14日消息,据Futurism报道,科技大亨伊隆·马斯克(ElonMusk)不久前在推特上发布了一张照片,引发人们对人工智能(AI)安全性的争论。当时马斯克发布了有关赌博上瘾广告的图片,上面写着“最终机器会赢”,显然他不仅仅指赌博机。更重要的是,马斯克称AI带来的危险比朝鲜核武器更大。

马斯克再提醒:不受监管的AI比核武器更危险

马斯克再提醒:不受监管的AI比核武器更危险

在随后的推文中,马斯克详细阐述了对AI系统开发进行监管的必要性。这与他本月早些时候所说的话相呼应,当时他说:“我认为,任何对公众构成危险的事情,至少政府应该有所了解,因为政府的义无之一就是确保公共福利。没有人喜欢受到监管,但对公众有危险的任何东西(包括汽车、飞机、食品以及药品等)都应该受到管制,AI也是如此。”

浏览对马斯克推文的评论发现,似乎大多数人都在某种程度上同意马斯克的意见。名为丹尼尔·佩德拉萨(DanielPedraza)的用户认为:“我们需要一个适应性较强的框架,不需要固定的规则、法律或原则,这对管理AI有好处。这个领域正在不断地变化和演进,任何固定的规则很快就会失效。”

许多专家都不愿意AI发展得太快。它造成的威胁听起来可能有点儿像科幻小说中的场景,但它们最终可能被证明是有效的。像史蒂芬·霍金(StephenHawking)这样的专家早就发出警告,宣称AI有终结人类的可能。在2014年采访中,这位著名的物理学家说:“AI的发展可能预示着人类的终结。”他甚至认为自动化的扩散对中产阶级是一种有害的力量。

另一位专家、MetaMedResearch的首席科学官迈克尔·瓦萨尔(MichaelVassar)指出:“如果远超人类的通用人工智能没有受到谨慎监管,可以肯定的是,人类将在非常短的时间内灭绝。”

很显然,至少在科学界,AI的自由发展可能不符合人类的最佳利益。很多人已经开始着手制定这些规则,以确保AI的发展“合乎道德规范”。电气与电子工程师协会提出了他们的第一份规则草案,希望能引导开发人员朝着正确的方向发展。

此外,在政府介入之前,科技巨头们也正在制定自我监管规则。来自谷歌、亚马逊、微软、IBM以及Facebook等大型科技公司的研究人员和科学家已经开始讨论,以确保AI造福于人类,而不是成为人类的生存威胁。

当然,要想达到足以威胁人类生存的程度,AI还有很长的路要走。然而,AI的进步是突飞猛进的。著名未来学家雷·库兹韦尔(RayKurzweil)预言,计算机将在2045年变得比人类更聪明。然而,他并不认为这是件可怕的事。也许,科技公司的自我监管将足以确保这些担忧变得毫无意义,或者最终可能需要政府的帮助。不管你的感觉如何,现在开始这些对话不算杞人忧天。但与此同时,也不要过于担心,除非你是个有竞争力的玩家。

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

精彩评论

暂无评论...
验证码 换一张
取 消

热门作者

东方

简介: 天马行空的文字之旅。

邮箱: liutingting03@hczyw.com

简介: 保持期待,奔赴山海。

邮箱: zhuangjiaxin@hczyw.com

松月

简介: 脚踏实地,仰望星空。

邮箱: wuxiaqing@hczyw.com

合作咨询:15889679808               媒体咨询:13650668942

广州地址: 广州市越秀区东风东路745号紫园商务大厦19楼

深圳地址: 广东省深圳市龙华区五和大道星河WORDC座5F506

北京地址: 北京市朝阳区小关东里10号院润宇大厦2层

慧聪电子网微信公众号
慧聪电子网微信视频号

Copyright?2000-2020 hczyw.com. All Rights Reserved
慧聪电子网    粤ICP备2021157007号