论坛专区
在线教育
 

建议尽快组织起草人工智能基本法

放大字体  缩小字体 发布日期:2022-08-11  来源:中国机器人网  浏览次数:138
 本报讯(记者计红梅)“建议加快制定我国人工智能法律、法规及安全伦理标准,确保人工智能健康、稳定发展,如尽快组织起草人工智能基本法等。”8月6日,在中国计算机学会(CCF)于苏州举行的“国家科技创新体系与计算机战略发展研讨会”上,中国工程院院士、国家并行计算机工程技术研究中心总工程师陈左宁作了题为《新一代人工智能安全与自主可控发展战略研究》的报告,并提出如是建议。她表示,该报告内容是包括中国工程院院士高文等在内的多位院士共同的思想结晶,也是中国工程院一项重大战略咨询课题的研究成果。
 
  近年来,人工智能系统在发展和应用中暴露出大量安全问题。陈左宁表示,人工智能之所以会引发安全问题,主要是因为其具有学习能力,可以自主决策、自主行动。具体而言,人工智能系统中广泛应用机器学习的三个重要属性是形成安全问题的基本原因,如机器学习的可理解性和可解释性问题、鲁棒性问题,以及目标函数或奖励函数描述的不完备性问题。
 
  她认为可以从两个角度对人工智能的安全问题进行分类。从广义上讲,人工智能安全问题包含人工智能系统作为一种人造系统(工程的系统或信息系统)的安全性问题,即人工智能技术的应用造成的经济和文化的、法律和伦理的、国家和社会的安全问题,以及由于人工智能系统具有思维和自我发展能力而可能形成的对人类整体的安全威胁。

微信图片_20220714092144
 
  此外,人工智能安全问题还可以分为内生安全问题和衍生安全问题。前者是指人工智能系统本身由于设计、制造、使用环境或受到攻击所产生的安全问题;后者则是指由于人工智能技术的应用而衍生出来的对其他系统安全性的影响问题。
 
  陈左宁介绍,围绕安全问题的解决,多位中国工程院院士提出了建议,具体包括如下方面:一是要明确主管部门,建立平台机构。建议明确国家层面主管人工智能安全与伦理审查的部门,建立国家人工智能技术与产品应用的检测、评估平台或机构。二是加快我国人工智能的法律、法规及安全伦理标准制定,确保人工智能健康、稳定发展。例如,尽快组织起草人工智能基本法,为人工智能技术开发和应用制定基础性法律文件。三是将人工智能安全与自主可控关键技术纳入现有研究专项,壮大人才队伍。四是积极推动人工智能安全领域的国际合作,共筑人类人工智能安全共同体。五是优化人工智能产业生态发展模式,实现人工智能应用产业链要素自主可控。
 
关键词: 人工智能
本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

 
展会
微信公众号
qq群
 
工控网 | 工控文库 | 工控视频 | 工控软件 | 在线教育 | 用户使用指南 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 |手机版 | 广告服务

本网站所有文档及文件资料,除特别标明本站原创外,均来自互联网及网友上传,如有涉及版权问题,请联系我们,我们将第一时间处理。
我们保留版权,任何涉嫌侵犯本站版权的行为,本站保留追究其法律责任的权利。

Copyright © 2018-2020 www.gkwo.net  滨州新大新机电科技有限公司 版权所有 鲁ICP备11011731号-4