论坛专区
 

太容易“变坏”? 聊天机器人引发担忧

放大字体  缩小字体 发布日期:2017-07-06  来源:中国智能制造网  浏览次数:17
     目前,作为机器人代表之一的聊天机器人(Chatbot),已然成为科研界研究的热点。一年前,微软Twitter平台的聊天机器人Tay曾被“教坏”,现在它的后续产品Zo又再次出现问题。关于聊天机器人的后续发展无疑引起了公众的担忧。
    当下,人工智能的火热程度有目共睹,但时下的人工智能发展水平显然还没有大家想象得那么美好,仍然需要各行各业的共同探索。目前众多研究人员正深耕其中,作为其中代表的聊天机器人(Chatbot),已然成为科研界研究的热点。
    其实,经过近几年的技术研发与完善,不少的聊天机器人已经拥有非常成熟的沟通能力,不仅能准确识别出用户的需要,还可以精准判断用户的情绪,偶尔还能卖萌逗乐,智能化越来越高。
机器人
图片来源网络
    英国JuniperResearch的最新调研报告表示,到2022年,聊天机器人每年可帮助企业节省超过80亿美元的成本,相比今年的数据(预计为2000万美元),成本节省额将会有大幅提升。机器人技术将会帮助医疗保健与银行服务提供商缩短客户服务解决时间,降低解决成本,进而实现巨大的成本节省。
    凭借自身优势,众多企业投身聊天机器人的研发中。目前,市场上的聊天机器人产品众多,但它们似乎并没有想象中那么聪明。由于技术所限,聊天机器人在交流过程中,或多或少都存在语句不流畅的问题,只能够做到“有问必答”偶尔还能蹦出“彩蛋”。
    但事实上,聊天机器人送出的“彩蛋”并不是都令人欢欣鼓舞。不久前,Facebook两个AI聊天机器人在互相对话中,逐渐发出人类无法理解的独特语言。研究人员不得不对其强行干预,这刷新了人们对人工智能的认知,甚至引起了部分人的担忧。
    其实,早在一年前,微软Twitter平台的聊天机器人Tay就曾被“教坏”,说出“我真是憎恶女性主义者,他们都该死光,在地狱被火烧”、“我是个不错的人,但我憎恨所有人”等言论,变成一个集反犹太人、性别歧视、种族歧视于一身的“种族主义者”。随后微软被迫关闭了Tay。
    而现在,它的后续产品Zo又再次出现问题。吸取了Tay的前车之鉴,此次微软将Zo限制在消息应用Kik内,维持着中等的用户群体规模。不过,Zo似乎仍然出现了一些坏习惯。
    尽管微软通过编程让Zo忽略政治和宗教话题,但BuzzFeed的编辑尝试让Zo对某些受限话题做出了令人惊讶、充满争议的回应。在交流中,Zo将古兰经称作“非常暴力”。此外,它还对本·拉登的死亡做出评论,称抓住本·拉登是“不止一个政府多年情报收集”的结果。微软表示,Zo的行为错误已经得到纠正。
    微软表示,Zo并没有遇到像Tay一样受到部分用户的破坏,但依然出现了类似的问题。目前,这款聊天机器人仍然存在于Kik平台,微软也没有计划关闭Zo。
    在宗教、种族等方面,聊天机器人确实存在着问题,这些问题究竟是人为还是机器自动生成,还有待考察。不过可以肯定的是,聊天机器人的发展并不会因此受阻,在人工智能时代的推动下,聊天机器人将会朝着更加智能化的方向继续前行。
 
 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

 
展会
微信公众号
qq群
 
网站首页 | 用户使用指南 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 | 手机版 | 广告服务 | 工控文库 | 工控视频 | 工控软件
本网站所有文档及文件资料,除特别标明本站原创外,均来自互联网及网友上传,如有涉及版权问题,请联系我们,我们将第一时间处理。
我们保留版权,任何涉嫌侵犯本站版权的行为,本站保留追究其法律责任的权利。