一份新的报告警告说,人工智能的快速发展正在增加危险,恶意用户很快就会利用这项技术来安装自动黑客攻击,导致无人驾驶汽车碰撞或将商用无人机变成有针对性的武器。
这项研究由来自剑桥、牛津和耶鲁大学的25名技术和公共政策研究人员以及隐私和军事专家于周三发布,他们对孤狼袭击者可能滥用人工智能的行为发出了警告。
研究人员说,人工智能的恶意使用会对数字、物理和政治安全构成迫在眉睫的威胁,因为它允许大规模、精细目标攻击。这项研究的关注是5年内的合理发展。
“我们都认为人工智能有很多积极的应用。”牛津大学人类学院未来研究员迈尔斯·布伦达奇说,“但在有关恶意使用的文献却是一片空白。”
AI,即人工智能,包括使用计算机执行通常需要人类智能的任务,比如决策或识别文本、语音或视觉图像。
人工智能被认为是开启各种技术可能性的强大力量,但它已成为尖锐辩论的焦点,即它所支持的大规模自动化是否会导致广泛的失业和其他社会混乱。
这篇98页的文章警告说,通过使用AI来完成可能需要人力和专业知识的任务,可能会降低攻击的成本。可能会出现新的攻击,单靠人类独自开发或利用AI系统本身的脆弱性是不切实际的。
报告审查了越来越多的关于人工智能安全风险的学术研究,并呼吁各国政府和政策和技术专家合作并化解这些危险。
研究人员详细描述了人工智能的力量,以生成合成图像、文字和音频,以模仿他人的在线行为,以改变公众的观点,并指出专制政权可能会使用这种技术。
该报告提出了一系列建议,包括将人工智能作为一种军民两用的军事/商业技术。
它还提出了一些问题,即学者和其他人是否应该控制他们发布或披露人工智能的新进展,直到该领域的其他专家有机会研究并对他们可能构成的潜在危险做出反应。
“相比得到答案,最终会冒出更多问题。”布伦达奇说。
这篇论文是在2017年初的一个研讨会上诞生的,它的一些预测在撰写的时候基本实现了。作者推测,人工智能可以用来制作高度真实的虚假音频和视频,用于宣传目的。
去年晚些时候,所谓的“deepfake”色情视频开始在网上出现,明星们的面孔实际上融合到了不同的身体上。
“这发生在色情行业,而非宣传,”OpenAI的政策主管杰克·克拉克(JackClark)说,该集团由特斯拉执行官埃隆·马斯克和硅谷投资家山姆·奥特曼(SamAltman)创立,专注于造福人类的友好人工智能。“但是,没有任何关于deepfake的东西表明它不会用于宣传。
精彩评论