首页 > 赛迪观察 > 正文

一份来自专家大咖的人工智能恶意使用预测报告,带你了解AI之忧患

来源:中国软件评测中心  作者:赵晓飞  投稿时间:2018-04-11

  近几日,一条无人驾驶汽车撞伤人的事故新闻在全世界范围蔓延开来。3月19日晚,在美国亚利桑那州坦佩市,Uber 的一辆沃尔沃 XC90 自动驾驶汽车发生严重车祸,致使一位行人伤亡,当地警方也在积极调查事故原因。事件真相现在还无从得知,但值得我们深思:以无人驾驶为代表的人工智能技术给人们带来更多的是便利还是隐患?!
 

  2018年2月,来自 OpenAI、人类未来研究所、牛津大学、剑桥大学等14个机构和高校共26名专家大咖发表了一篇名为《人工智能的恶意使用:预测、预防和缓解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的研究成果报告(报告下载地址见文末)。
 

  人工智能和机器学习技术正迅速发展,广泛应用于无人驾驶、机器翻译、医疗影像分析等领域,给人们的生活带来千变万化。该报告调查了恶意使用AI技术可能引起的安全威胁,并提出了预测、预防和缓解这些威胁的方法。
 

  报告重点包含三个部分:1)AI与安全威胁的总体框架;2)三大安全领域;3)干预建议。
 

  首先,报告介绍了AI的性能、安全相关特性以及应用情景等研究内容,并指出如果没有足够的防御措施,AI技术的发展可能会扩大现有安全威胁、引入新的安全威胁或改变安全威胁的典型特征。
 

  其次,报告详细分析了AI的恶意使用,指出这将会危及数字系统的机密性、完整性和可用性(数字安全威胁),将会引起针对人类或基础设施的攻击(物理安全威胁),以及将会对重大公共事务审议、公正和优惠政策合法实施等社会稳定性产生威胁(政治安全威胁),并通过一些代表性的例子说明了在这些领域中可能发生的安全威胁变化。

  第三,报告提出了四项高层次建议,重点加强技术研究人员、政府决策人员以及利益相关者之间的沟通。具体包括:1)决策者应与技术研究人员密切合作,调查、预防和缓解AI的潜在恶意用途;2)AI研究人员和工程师应认真对待他们工作的双重性,在研究和开发中允许误用相关考虑因素影响研究重点和指标,并在有害应用可预见时主动与相关主体接触;3)应在研究领域用更多成熟的方案来确定最佳实践方法来解决双重性问题(像解决计算机安全一样)以及哪些地方适用 AI;4)积极寻求扩大参与讨论这些挑战的利益相关者和领域专家的范围。
 

  同时,报告还分析了影响AI与安全均衡的因素,并建议在以下四个优先研究领域:与网络安全社区共同学习、探索不同的开放模式、促进责任文化、发展技术和政策解决方案开展研究探索。
 

  技术的发展总是一把双刃剑,有利有弊。我们不会否认人工智能给人们带来的高效、便捷,在了解人工智能恶意使用可能产生威胁的同时,我们应进一步研究、探索如何有效降低危害的发生。这就需要第三方评测的加入,以公正、科学、严谨的态度去发现产品的缺陷、潜在漏洞或风险等,提前预防,帮助用户使用更为安全可靠的AI产品。

  报告下载:https://maliciousaireport.com/                                                           

共1页 |< 首页 < 上一页 1 下一页 > 尾页 >|

【上一篇】: 鲜花电商有多美?    【下一篇】: 互金企业上市很近,上岸很远

  中国电子信息产业发展研究院(赛迪集团)是直属于国家工业和信息化部的一类科研事业单位。成立二十多年来,一直致力于面向政府、面向企业、面向社会提供研究咨询、评测认证、媒体传播与技术研发等专业服务。形成了政府决策与软科学研究、传媒与网络服务、咨询与外包服务……[详细]

赛迪专家更多

搞好大生态,是智能时代运营商大使命

翼博览会已经走过十个年头。这个从最早为解决C网终端..

中国工业互联网十大演进趋势研判

2018年8月31日,由中国电子信息产业发展研究院..

赛迪机构

咨询业 媒体业 评测业 信息技术服务业 会展培训业 其他(分支机构)