论坛专区
 

人工智能想要取代人类还很遥远?

放大字体  缩小字体 发布日期:2017-05-02  来源:互联网  浏览次数:60
    人工智能会做很多事情,但我做的它不一定会,或者它做这些常常出问题,需要我处理,又或者是我需要训练它学习新任务。这三个阶段再进一步,就是人类能放心将任务完全交给它的时候。

    为什么说人工智能想要取代人类还很遥远?

    人工智能诞生有61年,但它从高冷科技到被吃瓜群众围观也就是这几年的事。我们可能一直在媒体上看到人工智能做各种各样的事,文可遣词造句写文章,武能扛枪指挥上战场。所以总有一种声音在告诉我们:人工智能总有一天什么都能做,到时候你就是它寄生的一部分,甚至被它控制。

    但近期的一系列事件在告诉我们一个相反的结论:谈论人工智能取代人类还为时尚早,至少有一些问题需要解决。

    人工智能有一个最基本的优点,就是能在长时间的工作中保持中立和准确性,这也是很多公司开发人工智能的一个主要原因。比如说,IBMWatson认知计算平台用于医疗的效果很不错。但不是所有的人工智能都那么靠谱,比如近期用于Facebook消息流的人工智能就捅了篓子。

    Facebook的趋势新闻版块一直被人指责有严重的政治偏向,后来Facebook炒掉了整个合同工编辑,原来的编辑工作完全由人工智能代替,但没过几天,人工智能就闯了大祸:它给趋势新闻版块推送了一条假新闻,宣称福克斯电视台解雇了一名著名主持人,并且称该主持人是“叛徒”,在Facebook修正错误之前,可能有数百万用户看到了假新闻。

    而后续更令人惊讶。Facebook为了人工智能炒掉了整个人类新闻编辑团队,在假新闻事件发生之后,有三名原新闻编辑站出来宣称,在他们被解雇之前,Facebook力推的新闻算法其实并不完善,甚至有编辑爆料,原来他们审核人工智能算法推荐的新闻时,发现算法推荐的50篇文章一般只有20篇才是真新闻,而且这20篇新闻来源也不够权威。

    这个事例中,人工智能可能没有人类编辑对新闻事件的好恶偏向,但新闻本身的准确性大大降低,直接影响了新闻推荐的质量。编辑们表示,除了工程师不断提高算法,编辑对于人工智能系统的训练也是不可或缺的,但这里的人工智能没有经过充分学习,就被Facebook出于新闻中立性的考虑被急急忙忙推出来见人了。

    后来的事情更是严重:Facebook推出人工智能新闻算法的时候正好撞上美国大选,然后争议不断的特朗普当选总统,各种对结果不满的人开始指责Facebook:都是你们消息流上的假新闻帮特朗普胜选!这种说法可能有甩锅的嫌疑,但Facebook上流行各种关于大选的假新闻倒是真的。

    据说在欧洲一个叫“马其顿”的国家,一些青年靠建立假新闻网站、编假新闻来挣广告费,而传播假新闻最快的途径就是通过Facebook。现在,被骂的狗血喷头的Facebook开始采取各种措施打击假新闻,效果如何,还尚待时日证明。

    这件事情告诉我们,人工智能完全成熟需要时间打磨。技术人员需要不断改善人工智能的算法;更重要的是,人工智能做到模仿人类思维必然有一个学习的过程,而绝大多数的学习过程是通过人类训练而进行的。

    目前各大科技公司开发人工智能的时间还不够长,相应的系统学习也没有那么成熟,可以说是相当于几岁或者十几岁少儿的水平,让这样的系统承担成人才能做的工作,可能超出了目前系统的承担能力。

    相比人工智能本身缺陷导致的错误,这一条目前还不太为人所注意,但仔细想想,黑客入侵系统对于人工智能是个显而易见的威胁。作为以各种算法为基础的系统,一定存在被黑客攻击的可能。

    黑客目前可能最常用的攻击手段就是欺骗人工智能。近期的各种电信诈骗告诉我们人类本身也不是时刻都保持聪明,对于缺乏完全思维能力的人工智能更是如此。在这方面,黑客把欺骗手段可以玩出花样。

    比如说,美国的研究人员可以通过生成的3D模型欺骗人脸识别系统。这些研究人员首先在社交网站上收集人脸照片,通过这些照片制作人脸3D模型,并加入面部表情或者眨眼之类的小动作,至于皱纹之类的面部细节可以伪造,这样生成的人脸3D模型在55%到85%的测试时间中可以骗过五分之四的人脸识别系统。

    除了欺骗人脸识别系统,黑客还有可能攻击自动驾驶系统。比如曾经就有黑客利用特斯拉Autopilot系统漏洞,成功“催眠”特斯拉。

    如果这个系统本身就不够成熟,那就搞笑了。曾经有记者测试一个刚起步的人工智能投资机器人,结果这个机器人为记者虚构的创业项目要扔1400万美元。

    所以说,目前再厉害的人工智能,还是有被欺骗的可能,至少我们不能将它作为唯一的依靠来判断事情或者做决定。

    谈到“明辨是非”,对于目前的人工智能来说可能要求太高,毕竟连人类都不能做到永远明辨是非。有人甚至害怕,如果让人工智能明辨是非,就意味着人工智能有了自己的判断和好恶,这样它就不能完全听人类的话,甚至有背叛人类的可能。

    其实没那么玄。之所以让人工智能学会明辨是非,是让它能够判断出人类让它做的事情本身是对的还是错的。

    一个不会判断是非的人工智能,可能会变成某个居心不良的人的杀人工具,会无条件执行恶人的命令;即使问题没那么严重,也有可能是这么一种情况:一个记性不好的老人让人工智能机器人给花浇水,但实际上机器人刚刚給花浇过水了。

    让人工智能判断命令背后的风险,并且避免风险,是人工智能真正变成“智能”的重要一步。目前其实有人注意到这一点,他们试图开发能让人工智能做出简单判断的控制技术,还有人提出要给人工智能教道德和法律。

    但目前,相关的技术还在开发中,至于教授道德法律,科技巨头为此专门召开会议,试图制定人工智能的道德规则;而欧洲议会也推进关于自动驾驶和人工智能的相关法案,明确发生相关事故后的责任,并且要求人工智能机器人要加装“自毁按钮”。但这些努力目前都只是个开始。

    美国科技杂志《连线》前主编凯文·凯利曾经在他的书中写到,人类对人工智能的心态有7个阶段。目前我们对人工智能的心态可能是这样的:

    人工智能会做很多事情,但我做的它不一定会,或者它做这些常常出问题,需要我处理,又或者是我需要训练它学习新任务。这三个阶段再进一步,就是人类能放心将任务完全交给它的时候。

    在笔者看来,跨越前文所述的三个问题,人工智能才能完全承担人类给它的工作。
 
关键词: 人工智能
 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

 
展会
微信公众号
qq群
 
网站首页 | 用户使用指南 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 | 手机版 | 广告服务 | 工控文库 | 工控视频 | 工控软件

本网站所有文档及文件资料,除特别标明本站原创外,均来自互联网及网友上传,如有涉及版权问题,请联系我们,我们将第一时间处理。
我们保留版权,任何涉嫌侵犯本站版权的行为,本站保留追究其法律责任的权利。

Copyright © 2013-2015 www.gkwo.net  滨州新大新机电科技有限公司 版权所有 鲁ICP备11011731号-4