论坛专区
在线教育
 

人工智能的困境

放大字体  缩小字体 发布日期:2019-01-15  作者:工控网  浏览次数:37
     人工智能(AI)的快速进步和发展引发了对其双重用途应用和安全风险的猜测。从自主武器系统(autonomousweaponssystems,AWS)到面部识别技术,再到决策算法,每一个新兴的人工智能应用都带来了或好或坏的结果。人工智能技术的双重特性,不仅给各国的个人和实体带来巨大的安全风险:涉及政府、工业、组织和学术界(NGIOA),而且也给人类的未来带来了巨大的风险。
    现实情况是,任何新的人工智能创新都可能被用于有益或有害的目的:任何可能提供重要经济应用的单一算法,也可能导致空前的大规模毁灭性武器生产,而这是难以捉摸的。其结果是,人们对基于人工智能自动化的担忧正在加剧。
    随着机器学习、计算能力、无边界投资和数据可用性的进步,人工智能在广阔领域有着潜在的应用价值,这一事实使其所涉及的安全风险成倍增加。此外,由于人工智能的整合对人来说是无法直接预知的,所以对任何事物的认知能力都从根本上改变了安全格局。人工智能的自动化和智能带来了希望,也带来了毁灭的可能性。
    计算能力的大众化
    计算机技术的发展使技术发展、知识、信息和智能民主化。数据分析和处理技术的快速发展,将网络、电子、量子和自主武器与核、生物和纳米等技术结合于武器制造,这能够对人类造成灾难性的伤害。
    联网的计算机、网络和网络空间已经成为整个NGIOA所有数字过程中不可或缺的一部分。由于计算机代码和联网计算机已经将网络空间与地理空间和太空连接起来,现在几乎一切都被联网并可控。
    由于人工智能有可能被整合到网络空间、地理空间和太空(CGS)的几乎每一种产品和服务中并使其智能化,这种不断演变的认知能力从根本上改变了人类的安全环境。目前,技术、计算能力、编程语言、计算机代码、加密、信息、大数据、算法、投资等,它们都有军民双重用途。
    当每个人都可以访问数字数据,拥有必要的机器学习技术和计算能力就能为己创建人工智能时,复杂的安全挑战随即产生,管理则变得困难重重。这不仅意味着增长中的潜在大规模杀伤性武器数量,攻击面范围的扩大也不容忽略。人工智能的双重使用威胁所带来的安全风险正变得越来越可怕。这就引出了一个重要的问题:人类的生存、安全和可持续性是否应该留给个人的智慧,谁能或不知道人工智能的潜在双重用途?也许现在是开发人工智能框架的时候了。
    数据的大众化
    随着网络空间的数据成为有争议的公有物,大数据的大众化带来了一个全新的世界秩序。这个新的世界秩序给我们带来了一个新的现实——任何地方的任何人都可以访问数字数据,并将其用于人类的善或恶。今天,任何个人或实体,只要有意愿,知道如何获取大数据和数据科学能力,就可以利用它来实现他们想要实现的任何智能、自动化、监视和侦察,无论他们具备何种教育背景、背景、社会地位或意图。
    虽然大数据的大众化带来了普遍的可访问性,并使跨NGIOA的个人和实体获得了授权,但它也给我们带来了许多重要的安全风险。任何有或没有受过正规训练的人,都有可能无意中甚至有意地造成社区、种族、宗教、国家和人类的混乱、灾难以及存在的风险。
    既然数据是构建大多数人工智能系统所必需的,那么数据的大众化是否会不受约束,而不承担任何责任和责任呢?
    人工智能
    人工智能、机器人技术、无人机等领域的最新发展,对人类的益处有着巨大的潜力,但同样的进步也带来了巨大的风险:未经检查的情报、监视、侦察,以及带有偏见或致命的算法,没有人为此做好了相应的准备。
    复杂安全风险产生于:这些带有偏见和致命因素的算法是混合的,因为参与开发或部署人工智能的决策者通常不会关注诸如“安全”之类的基本问题。因此,建立一种可持续的“人工智能安全”文化,不仅需要让人工智能研究人员、投资者、用户、监管者和决策者意识到人工智能开发的双重用途(不管算法的性质如何),而且还教育那些参与其中的人。
    正如今天的各国所看到的:
    任何人都可以创建具有双重用途的算法
    任何人都可以购买必要的数据、工具和技术来创建算法
    远程开发人员可以为任何人开发算法
    算法可以单独购买,并可用于任何目的
    自动无人驾驶飞行器正在崛起
    自主武器系统成为了现实
    拥有自主权的人工智能系统成为一个现实
    自主面部识别成为现实
    人工智能算法容易受到威胁和控制
    这就提出了一个根本性的问题:任何人、任何来自不同国家的个人或实体,如何能够访问必要的数字数据、探索为任何目的和议程创造人工智能的基础科学,而不承担任何责任、监督和后果?
    这种人工智能的发展需要在必要的时候进行管理和预防。
    今天的人工智能发展和前景在许多方面都带来了不确定性。因为人工智能是一种软件,它不仅建立在军队使用的武器系统上,而且在NGIOA的每一个智能应用程序中都有,每个人工智能应用的潜力都有双重用途,这是一个不容忽视的现实。
    安全困境
    在人类历史的大部分时间里,安全的概念和方法主要围绕着使用武力和地理空间的领土完整。由于安全的定义和意义在人工智能世界中受到了根本性的挑战和改变,传统的安全是指在地理空间内或跨越地理边界对各自国家的侵犯,现在这种概念已经过时了,需要对其进行评估和更新。
    全新的人工智能世界的出现,或多或少有点像一个陌生的领域,在这个领域里,几乎没有人知道,而且大多是未知的。这引发了恐惧、不确定性、竞争和军备竞赛,并带领我们走向一个没有边界的新战场,这可能也可能不涉及人类,这也可能很难被理解和控制。
    不断发展的人工智能威胁以及安全挑战的复杂性跨越了空间、意识形态和政治,这就要求各国的所有利益攸关方进行建设性合作。集体的头脑风暴是必要的,对威胁的事物进行客观的评估,以及确保其安全。在认识到这一现实的情况下,风险集团(RiskGroup)发起了对双重使用技术困境(DualUseTechnologyDilemma)的讨论。
    虽然关于人工智能的结构、角色和双重用途的争论将在未来几年继续,但任何试图重新定义人工智能安全的尝试都需要从识别、理解、合并和扩展人工智能安全威胁的定义和性质开始。尽管本文的重点是人工智能,但许多其他技术需要对其双重使用潜力进行评估。现在是开始讨论新兴技术的双重用途的时候了。
 
关键词: 人工智能
本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

 
推荐资讯
展会
微信公众号
qq群
 
工控网 | 工控文库 | 工控视频 | 工控软件 | 在线教育 | 用户使用指南 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 |手机版 | 广告服务

本网站所有文档及文件资料,除特别标明本站原创外,均来自互联网及网友上传,如有涉及版权问题,请联系我们,我们将第一时间处理。
我们保留版权,任何涉嫌侵犯本站版权的行为,本站保留追究其法律责任的权利。

Copyright © 2018-2020 www.gkwo.net  滨州新大新机电科技有限公司 版权所有 鲁ICP备11011731号-4