当前位置: 首页 » 行业资讯 » 机器人»如果机器人赢得了围棋之战,人类该恐惧吗?;
   

如果机器人赢得了围棋之战,人类该恐惧吗?;

 46.1K
     [点击复制]
放大字体  缩小字体 发布日期:2016-09-13   浏览次数:304
核心提示:我们越是依赖机器,出问题的时候,我们的风险就会越大。
          “人机世纪大战”进入倒计时,3月9日谷歌人工智能系统AlphaGo将挑战世界围棋冠军李世石,如果AlphaGo胜出,人类是否该恐惧?

随着人工智能的兴起,一些人提出了这样的警告:我们可能正处在创造一种新的生命形式的边缘,它不仅标志着进化上的突破,也会对人类物种的生存构成潜在威胁。真的是这样吗?

机器人幼儿园

“欢迎来到机器人幼儿园,” 38岁的彼得•阿比尔(Pieter Abbeel)在加州大学伯克利分校机器人学实验室门口说。阿比尔2000年获得了斯坦福大学的计算机科学博士学位,在“如何教会机器人聪明地思考”领域,他是一名世界级的专家。

但是在教会它们聪明地思考之前,阿比尔首先必须教会它们思考。“这就是为什么我们说这是幼儿园的原因,”他开玩笑说。布雷特(Brett)是一个六英尺高的人形机器人,是这个幼儿园众多“学生”中的一个。它由硅谷厂商柳树车库(Willow Garage)制造,几年前被该实验室买下用来做实验。阿比尔和学生教布雷特玩玩具:木锤、塑料玩具飞机、一些巨型乐高积木。

可编程工业机器人出现已经很久了,你可以在工厂里看到那种将模块插入PC板的机器人,它们重复同样的动作,每小时300次。那种机器人并不智能。

但近年来,机器学习(模仿人类大脑、让机器自己学习东西的算法)取得了很多突破,计算机识别语音和视觉模式的能力因而突飞猛进。

阿比尔的目标是给机器人灌输一种通用智能——认识世界,以便它们能够自己学会完成任务的方式。他还有很长的路要走。 “机器人的学习能力还不如一个两岁的小孩,”他说。布雷特学会了完成一些简单任务,比如叠衣服。

对于人类来说很简单的事情,比如明白桌子上一团皱巴巴的东西实际上是一条毛巾,这对于机器人来说却相当困难。部分原因是机器人没有常识,没有之前尝试叠毛巾的记忆,以及最重要的是,它们对毛巾是什么东西完全没有概念。它们看到的只是一块颜色。

小孩子在解决问题时,往往会持续不断地调整自己的做法。阿比尔从中受到启发,开创了一种让机器人自学的方法。现在,当布雷特整理衣物时,它会用手抓起卷成团的毛巾,试图弄明白它的形状,搞清如何折叠它。这听起来很幼稚,但机器人学习叠毛巾就是这么不容易。

这将把我们带向何方?

智能机器可以执行的任务的复杂性正在呈指数级增长。最终这将把我们带向何方?如果机器人能够自己学会叠毛巾,有朝一日它也会学会给你做饭,给你做手术,甚至打仗吗?

人工智能可能有助于解决我们面临的一些复杂问题,比如治疗癌症和应对气候变化——但在短期内,它也有可能用来开展监视活动、破坏隐私,进行电子推销。除此之外,更大的问题也隐隐呈现出来:机器有朝一日会拥有独立思考、对问题进行推理,以及展示情绪的能力吗?没人知道这些问题的答案。

智能机器的兴起不同于其他任何技术革命,因为它最终和“人性”这个概念利益攸关。我们有可能正处在创造一种新的生命形式的边缘,它不仅标志着进化上的突破,也会对人类物种的生存构成潜在威胁。

但这场革命已经开始。去年夏天,伯克利团队给一个仿真机器人安装了一个短期记忆系统。参与该项目工作的计算机科学家谢尔盖•莱文(Sergey Levine)说,在机器人身上测试这个记忆程序时,他们注意到“一件怪事”,他们向它发出一个命令,让它把一个木钉放在的两个孔洞中的一个里面,或者放左边,或者放右边。

为了做比较,他们在没有记忆程序的时候重做了实验 ,结果令他们吃惊:机器人仍然能够把木钉放在正确的孔洞中。没有了记忆程序,它是怎么记得该放哪里的? “最终我们发现,一旦机器人接收到命令,它就把胳膊朝着正确的孔洞伸过去,”莱文说。然后,在命令消失后,它可以根据自己身体的姿势,知道该放哪个孔洞。实际上,机器人是自己想出了一个方法来正确地执行这个命令。 “这真是非常令人惊讶,”莱文说。 “而有点令人心惊肉跳。”

发展人工智能是在“召唤恶魔”?

人工智能领域一再出现新的突破:今年1月,DeepMind表示它已经开发了一种算法,击败了欧洲冠军围棋。围棋比象棋更加复杂,而这种名为AlphaGo的算法将在3月中旬挑战世界围棋冠军。当然,人类在这种快速发展中起到了作用,但是人们不免也会觉得,我们似乎已经在智能机器的进化中达到了某个拐点。难道我们正要目睹一个新物种的诞生吗?还需要多长的时间,机器就会变得比我们更加聪明?

在近期的一次会议上,特斯拉及SpaceX公司创始人伊隆•马斯克(Elon Musk)突发惊人之语,说发展人工智能是在“召唤恶魔”。不过他后来承认,这么说有点言过其实。他说,“智能机器的突飞猛进提出了一些严肃的问题,我们需要考虑自己作为人类的身份,需要考虑我们正在为自己打造什么样的未来。”正如他所指出的,我们对机器的依赖已经是个不争的事实:“我们已经成为了那种靠机电装置维持生命的人了,你试试把手机关上一段时间——你就会明白幻肢综合症是什么意思。”

这并不是说,超级智能机器只有在变得超级邪恶之后,才会对我们人类构成威胁。 “人工智能真正的风险不是恶意,而是竞争力,”物理学家霍金最近提出。 “超级智能机器将非常善于实现自己的目标,如果这些目标与我们的目标不一致,我们就麻烦了。你踩死蚂蚁,可能并不是因为你是一个邪恶的蚂蚁仇恨者,但如果你负责一个水电绿色能源项目,有一个蚁丘被水淹没,那蚂蚁就是纯属倒霉。我们不能让人类陷入蚂蚁的这种处境。”

现在的人工智能有多聪明?

尽管现在我们有了更聪明的算法,更强大的机器人,超级智能机器却仍然更像是科幻而非科学的产物。Facebook人工智能研究主管扬•乐康(Yann LeCun)说,“人工智能现在的聪明程度和老鼠差不多。”他说得没错。IBM花了多年时间编程,投入了数以百万计的美元,在2011年推出了“沃森”(Watson)程序。沃森在《危险边缘》智力游戏节目中,击败了最出色的人类选手,现在它是IBM公司“认知计算”项目的基础。

它可以每秒读取8亿个页面,可以消化维基百科的全部语料,更不用说积累了几十年的法律和医学期刊了。但是它不能教你如何骑自行车,因为它的智能频谱很狭窄——它不知道这个世界实际上是如何运转的。Aristo是最先进的人工智能程序之一,但它无法理解这样一句话:“人呼吸空气。”因为要理解这一点,你需要一般性的知识——它却没有这样的知识。即使它知道这句话中每个词的定义,它也不知道人们呼吸空气是为了生存;不知道人是每分钟呼吸一次空气,还是一辈子只呼吸一次。还一些令人印象深刻的服务,比如Skype翻译(目前只有预览版),用户可用两种不同的语言进行实时对话,但它也有很长的路要走。如果你与意大利的一个人聊天,你对天气的谈论,可能会被翻译成对《圣经》的评论。

这并不是说智能机器的兴起就没有风险。自主武器系统,比如武装无人机,可以利用面部识别技术和其他数据来开展暗杀活动,这样的危险确实是存在的。

但它们并不对整个人类的生存构成威胁。有些人会想象,朝鲜黑客会突然开发出新的算法,让金正恩拥有了世界终结者那样的攻击力,这其实不太可能。因为人工智能和iPhone不一样,不是你写一个新应用就能大功告成的事情。它更像构建互联网本身——只能通过时间来完成,它需要大量的增量发展。

夸张的想象掩盖了真正的风险

事实上,夸张的想象反而掩盖了智能机器兴起带来的真正风险——导致工人失业,在战争中更多使用自主武器,以及这样一个事实:我们越是依赖机器,出问题的时候(无论是技术故障还是黑客攻击),我们的风险就会越大。

这是一个关于“异化”(alienation)的问题。如果在一个世界中,我们和机器说话的时候多过和人说话,而艺术不过是一种谐调悦目的算法输出,异化就会出现。此外,人工智能时代也会带来严重的隐私挑战,这不仅仅是说有智能无人机从上空监视你,而且也是说一些公司会跟踪你的一举一动,目的就是为了向你销售东西。

夸张的想象也掩盖了我们与机器更深入地合作可能带来的好处。大多数研究者,比如DeepMind的杰米斯•哈斯比斯,他们认为,如果我们给机器提供资料,它们就可以帮我们解决诸如疾病和医疗这样的重要问题,可以帮助科学家应对气候变化等等。

技术革命往往会激发恐惧感——有时候合情合理,有时则不然。工业革命初期,英国纺织工人砸坏了机器,因为担心自己的饭碗会被机器抢走(确实如此)。电力时代开始的时候,人们觉得电线可能会引起精神错乱(其实没有)。而在20世纪50年代,家电厂商还认为很快就会出现核动力吸尘器。

实际上,人类已经在和机器一起合作,你很难想象未来会有什么不同——不管机器人以后变得多么复杂。 著名的计算机科学家贾瑞恩•拉尼尔(Jaron Lanier)曾说过:“算法是人类设计的,它们反映了设计者的偏见。”无论是好是坏,无论我们会创造什么样的未来,它都是我们为自己设计和建造出来的。

 
 
 
[ 行业资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]
 
 
展会更多+
视频更多+
点击排行
 
网站首页 | 网站地图 | 排名推广 | 广告服务 | 积分换礼 | 网站留言 | RSS订阅