首页 > 赛迪观察 > 正文

如何降低人工智能发展潜在风险

来源:赛迪智库  作者:张金颖  投稿时间:2017-12-08

  特斯拉和美国太空探索技术公司创始人兼首席执行官埃隆·马斯克在罗德岛一次全国性州长会议上表示应该警惕人工智能崛起的潜在风险,并建立监管机构来引导这项强大技术的发展。随着人工智能系统越来越多地参与到人类日常生活,如何降低人工智能带来的潜在风险,成为亟待解决的全球性新议题。为此,笔者有三点建议。
 

  一是完善人工智能的监管体系。作为各国企业自动驾驶试验田的美国,其交管部门虽通过发放许可证等方式充分鼓励和积极配合自动驾驶技术的测试和路试,而对于正式的应用许可仍然抱有十分审慎的监管态度。获得许可证的公司均在汽车设计中加入了人为干预汽车驾驶操作系统,以保障行车的安全性。世界经济论坛认为,对于人工智能的监管需多层政策,包括道德标准、规范人工智能应用程序的预期、实现场景以及实施问责制。
 

  二是厘清人工智能的标准体系。目前有关人工智能的硬件与技术存在发展水平、处理速度层次参差不齐等问题。因此,未来人工智能技术标准化建设的主要趋势是统一技术、数据使用以及安全等标准化建设。在人工智能技术发展日益成熟的趋势下,明确规范的行业标准,将为人工智能的发展提供“智能化”的支撑与支持。
 

  三是夯实人工智能的法律体系。Google无人驾驶汽车在美国加州测试时与一辆公交车相撞,万幸未发生人员伤亡。美国高速公路安全管理局认为,根据联邦法律,无人驾驶汽车上的人工智能应被视为司机。联系之前发
 

  生的德国大众“机器人杀人”事件,不禁引起人们对人工智能责任承担的思考。我国《产品质量法》规定,因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。该条文可在短期内解决人工智能相关法律问题,而当人工智能发展到具有高度自主性和行为能力时,一套独立完整的法律体系涵盖人工智能的定罪量刑、确保研发者、运营者和使用者的责任分配的清晰性,对维护社会秩序的稳定和法律体系的完善来说十分有必要。2017年美国国会提出3部有关“人工智能”的法案,分别涉及到民生领域及教育领域。针对人工智能的法律体系,需要有一部体系和结构上相对完整的专门法律作为主导,加以不同领域相关法律的配合与补充,将人工智能提升至国家战略层面。

共1页 |< 首页 < 上一页 1 下一页 > 尾页 >|

【上一篇】: 深入推进数字丝绸之路建设    【下一篇】: 物联网平台的未来在哪?

  中国电子信息产业发展研究院(赛迪集团)是直属于国家工业和信息化部的一类科研事业单位。成立二十多年来,一直致力于面向政府、面向企业、面向社会提供研究咨询、评测认证、媒体传播与技术研发等专业服务。形成了政府决策与软科学研究、传媒与网络服务、咨询与外包服务……[详细]

赛迪专家更多

辛鹏骏:谁是赋能数字经济先锋

信息通信产业从来都是社会进步的赋能者。技术变革是信..

中国工业互联网十大演进趋势研判

2018年8月31日,由中国电子信息产业发展研究院..

赛迪机构

咨询业 媒体业 评测业 信息技术服务业 会展培训业 其他(分支机构)