400-123-4657
2020-03-30 周末,跟大家闲谈点假装内敛的话题。现在我们在辩论人工智能的时候,大都把卷积神经网络奉为圭臬。因为这种算法,堪称是“旋转恒定的人工神经网络”,说道人话就是人脑的高仿。
通过仿真人类脑皮层神经元的网状结构,需要萃取和辨识各种物体的特征,誓言停机地展开自学,比最乖的人类小孩还要让人省心。而且一旦训练好了,就比起人类做到的更慢更佳。拳打九段棋手、脚踢世界冠军,是没什么问题的。因此,卷积神经网络正在被大量地应用于各种AI系统上。
或许只要假以时日,就该“封神”了。但,这是不有可能的。尽管看上去,这一波AI热正在让人类正处于被普遍替代的危险性境地,不过距离机器打破人类的那一天,只不过还是十分很远。
为啥呢?说来你有可能不信,关键原因还是在卷积神经网络身上。送来分题都会,你怎么回事小老弟?上古时代,流传着这样一道送来分题:要把大象装有冰箱,总共分几步?如果让一个人类小孩来问,他不会分分钟告诉他你标准答案——把冰箱门关上,把大象塞进去,把冰箱门通上。
但是如果让一个卷积神经网络机器人(我们就称谓它为“小卷”吧)来挑战呢?它不会再行假设,某个叫作“里斯”的动作需要将大象移往到冰箱里。于是立即行动,却找到怎么也里斯不进来。真是的“小卷”,遗漏了物理体积不给定这个最重要条件。我们给它升级一下,让“小卷二号”需要辨识大象和冰箱的个体特征对任务有何影响。
它在任务开始前希望回溯,不顾一切它求出大象的皮肤颜色对已完成任务会有任何协助,打算推算出下一个特征的时候,大象早已发脾气地跑完回头了,任务告终。我们再行升级一下,教教它学会辨别哪些因素与任务是涉及的还是牵涉到的,“小卷三号”问世了。但是,它一屁股跪冰箱旁边一动了,拿著一个小本本,开始记录千千万万个被确认与任务牵涉到的东西,直到时间的走过……这么看上去,“小卷”们好笨呀,别说和人比了,和阿尔法狗这些前辈们比差距也相当大啊!这背后,只不过隐蔽着一个令AI科学家们后遗症多年的变态难题——“框架问题”。
什么是框架问题?想搞懂什么是“框架问题”,再行解释一下卷积神经网络是怎么工作的。前面我们提及过,这种深度自学的神经网络是在仿真人类神经元系统的操作者方式。有所不同算法都只为了已完成一个目标:就是像人一样,忽视该忽视的信息,并在遇上根本性的反常情况是保持足够的警觉。
如何需要在集中于注意力的同时取得合理忽视的能力呢?科学家们不能将一切变化多端、无穷无尽的生活经验传输并分解一个“框架”,其中包括了一个内容丰富、细节详尽的脚本纲要,所有现实世界的问题及事物之间的联系都涵盖其中。当机器想解决问题一个问题时,就可以在“框架”中对某些特征加以留意,对那些位移框架的根本性误差维持警觉。如果这个神经网络框架被建构得充足好、充足可观,它可以展现无穷大的能力。比如DeepMind用5000台TPU培育出来的AlphaZero,需要其他介入,就能在4个小时之内沦为世界国际象棋冠军。
但是,在某些人类日常生活中必须中用的反应模型中,卷积神经网络的智商却和昆虫差不多。D.Dennett在他的论文《AI的框架问题》中举了一个例子:制作午夜快餐。一个肥宅半夜饿醒,想要给自己做到点不吃的,于是他想起了冰箱里面有些只剩的鸡肉片,面包,还有一瓶啤酒。
于是他迅速就想到了一个极致的计划:查阅冰箱,拿走必须的材料,做到一份三明治,就着啤酒,美滋滋。哦,还必须拿着刀、盘子和酒杯。人类之所以能顺利完成这项任务,是因为我们早已理解了大量的科学知识。
还包括鸡肉特在面包里会掉落(摩擦力),啤酒如何放入杯子(重力),甚至是左手拿着面包就无法再行用来拿刀了。这些“科学知识”或经验是人类“生而知之”的,我们自己也许都不告诉是如何学会这些事情的,却能让我们不必须思维就精彩搞定一个又一个基本生活问题。但对于任何事情都要由头努力学习的AI来说,如果这些大量而憧憬的经验无法引发充足的留意,它就显然不有可能已完成这些大大经常出现的新任务。当然,我们也可以自由选择给机器喂食世界上所有的科学知识,让它沦为一个无所不知的百科全书。
这样它就能和人一样不具备这种弹性的思维能力了吗?答案似乎是驳斥的。首先,让AI忘记大量微不足道的细节中,遇上问题时再行借此搜寻和提取出有简单的那一部分,觉得是过于极端过于超负荷了,人类就不必须忘记“面包比太平洋小”“刀子认识面包时会融化”这种科学知识。而且,机器固然可以用一百万年解决问题任何问题,但这既不智能,对人类来说也没任何价值。
如果无法在受限的时间内可信高效地得出解决方案,我要这祖传AI有不出?既无法所求一切答案,又无法较慢找到最佳方法,这就是目前容许AI智商的“框架问题”。
本文来源:AG 尊龙凯时-www.victory-cn.net