原标题:解码“认知之轮”:AI与人类的终极一战
今天周末,跟大家聊点假装深沉的话题。
现在我们在讨论人工智能的时候,大都把卷积神经网络奉为圭臬。因为这种算法,号称是“平移不变的人工神经网络”,说人话就是人脑的高仿。
通过模拟人类脑皮层神经元的网状结构,能够提取和识别各种物体的特征,永不停机地进行学习,比最乖的人类小孩还要让人省心。
而且一旦训练好了,就能比人类做的更快更好。拳打九段棋手、脚踢世界冠军,是毫无问题的。
因此,卷积神经网络正在被大量地应用于各种AI系统上。似乎只要假以时日,就该“封神”了。
但,这是不可能的。
尽管看起来,这一波AI热正在让人类处于被广泛替代的危险境地,不过距离机器超越人类的那一天,其实还是非常遥远。
为啥呢?
说来你可能不信,关键原因还是在卷积神经网络身上。
送分题都不会,你怎么回事小老弟?
上古时代,流传着这样一道送分题:要把大象装冰箱,总共分几步?
如果让一个人类小孩来回答,他会分分钟告诉你标准答案——把冰箱门打开,把大象塞进去,把冰箱门合上。
但是如果让一个卷积神经网络机器人(我们就称呼它为“小卷”吧)来挑战呢?
它会先假设,某个叫做“塞”的动作能够将大象转移到冰箱里。于是立即行动,却发现怎么也塞不进去。可怜的“小卷”,遗漏了物理体积不匹配这个重要条件。
我们给它升级一下,让“小卷二号”能够识别大象和冰箱的个体特征对任务有何影响。它在任务开始前努力推演,正当它算出大象的皮肤颜色对完成任务不会有任何帮助,准备推算下一个特征的时候,大象已经不耐烦地跑走了,任务失败。
我们再升级一下,教它学会分辨哪些因素与任务是相关的还是无关的,“小卷三号”诞生了。但是,它一屁股坐冰箱旁边不动了,掏出一个小本本,开始记录千千万万个被确定与任务无关的东西,直到时间的尽头……
这么看起来,“小卷”们好笨呀,别说和人比了,和阿尔法狗这些前辈们比差距也很大啊!
这背后,其实隐藏着一个令AI科学家们困扰多年的变态难题——“框架问题”。
什么是框架问题?
想要搞懂什么是“框架问题”,先解释一下卷积神经网络是怎么工作的。
前面我们提到过,这种深度学习的神经网络是在模拟人类神经元系统的操作方式。不同算法都只为了完成一个目标:就是像人一样,忽略该忽略的信息,并在遇到重大的反常情况是保持足够的警觉。
如何能够在集中注意力的同时获得合理忽略的能力呢?
科学家们只能将一切变化多端、无穷无尽的生活经验压缩并生成一个“框架”,其中包含了一个内容丰富、细节详实的脚本纲要,所有现实世界的问题及事物之间的联系都囊括其中。
当机器想要解决一个问题时,就可以在“框架”中对某些特征加以注意,对那些偏移框架的重大误差保持警觉。
如果这个神经网络框架被建构得足够好、足够庞大,它可以展现出无穷大的能力。比如DeepMind用5000台TPU培育出来的AlphaZero,无需其他干预,就能在4个小时之内成为世界象棋冠军。
但是,在某些人类日常生活中需要用到的反应模型中,卷积神经网络的智商却和昆虫差不多。
D. Dennett在他的论文《AI的框架问题》中举了一个例子:制作午夜快餐。
一个肥宅半夜饿醒,想给自己做点吃的,于是他想到了冰箱里面有些剩下的鸡肉片,面包,还有一瓶啤酒。于是他很快就想出了一个完美的计划:查看冰箱,拿出需要的材料,做一份三明治,就着啤酒,美滋滋。哦,还需要带上刀、盘子和酒杯。
人类之所以能顺利完成这项任务,是因为我们已经了解了大量的知识。包括鸡肉加在面包里不会掉下来(摩擦力),啤酒如何倒入杯子(重力),甚至是左手拿着面包就不能再用来拿刀了。
这些“知识”或经验是人类“生而知之”的,我们自己或许都不知道是如何学会这些事情的,却能让我们不需要思考就轻松搞定一个又一个基本生活问题。
但对于任何事情都要从头学起的AI来说,如果这些大量而平凡的经验不能引起足够的注意,它就根本不可能完成这些不断出现的新任务。
当然,我们也可以选择给机器喂养世界上所有的知识,让它成为一个无所不知的百科全书。这样它就能和人一样具备这种弹性的思维能力了吗?
答案显然是否定的。
首先,让AI记住大量微不足道的细节中,遇到问题时再从中搜索和抽取出有用的那一部分,实在是太极端太超负荷了,人类就不需要记住“面包比太平洋小”“刀子接触面包时不会融化”这种知识。
而且,机器固然可以用一百万年解决任何问题,但这既不智能,对人类来说也没有任何价值。如果不能在有限的时间内可靠高效地给出解决方案,我要这祖传AI有何用?
既不能穷尽一切答案,又不能快速找出最佳方法,这就是目前限制AI智商的“框架问题”。
卷积网络:我不生产智商,我只是人脑的搬运工
一代代研究者都致力于让机器模仿人类的心理机制和认知结构。但是,科学家们真的完全掌握了人类的思考之钥吗?
从机器智能遭遇的困境来看,显然不是。
“框架方法”,本身就对思维套路有着极强的依赖,只能依靠人类预先观察并解决机器可能遇到的所有框架型问题。
然而人类思索“如何把钢琴搬上楼”这样有一定难度的新问题时,恐怕不会拿出笔来画一张逻辑清晰的思维导图。更常见的做法是,用一种无意识的快速反应直接指向了答案,甚至来不及详细观察推理过程,比如“什么三段论使我相信钢琴可以被抬起来”之类的。
一些思维模式是可以被明确化、系统化的,但更多的心理推理过程是抽象的、内省的,就像是被魔术师掩盖起来的奥秘,至今没有谁能看出端倪。
这种不用思考的 “内省”式经验,是让人类能够“先思而后行”的关键,也是机器无法模仿的。
时至今日,还没有人能够提供什么切实可行的证据来充分而精准地描述出,人类的内省式经验是如何指导他生成思维框架或编写脚本的。
因此,哪怕,从简单的语义到末梢神经元,卷积神经网络已经对人类的“认知之轮”模仿的惟妙惟肖,那些都是建立在能够被描述和形成计算机映射的认知过程上。
AI从整体效果上对认知的各个层级进行模拟,与我们尚未发现的人类大脑的真实活动方式,有可能完全不同。
既然“人类如何思维”还无法被解释,那么给AI一个“高仿大脑”就更是不可能实现的事情了。那么,今天被广泛使用的机器智能构造体系,还靠谱吗?
人类的安全锁:认知之轮的终极悖论
如果我们用“人脑能做什么”来要求智能体,比如在行动前进行周密的思考和架设,三思而后行;又或者是回答非常跳跃的脑筋急转弯,那么AI是永远不可能比人类更智能的了。
这里面存在着一个关于机器智能的悖论:就是如果AI不模仿人类的“认知之轮”,向这个巨大的并行处理器学习如何提取特征、如何生成模型、如何判断,那它就不可能变得智能;
但如果我们想把AI当做“认知之轮”的齿轮箱,试图借由它来一步步推倒到终极问题,搞清楚人脑是如何实现那些惊人的认知功能的,那也会让事情变得一团糟。
就像我们都知道植物通过光合作用能产生葡萄糖,但谁也不会认为,通过观察光合作用并将其计算机程序化,就能创造出糖分。
目前的神经科学家,根本没有提供有效线索,能让我们了解大脑的认知功能究竟是怎样实现的。
如何为这些隐秘的“心理实体”找到合适的程序对应,目前还没有什么答案。在这种制约条件下,我们有一点不成熟的小建议:
1. 尝试用心理学而不是神经科学去解释人脑。
神经科学家特别关心及时的神经元和解剖学,在已经设计出的神经元计算机模型中,很多都是“冯诺依曼式”的构造体系,关注未经过解释的细胞激活方式。但人类认知问题、解决问题的能力,更像是一场思维的魔术表演,和已经被充分认识的大脑组织功能之间,有着一大片空白地带。通过跨学科的认知科学、生物学,生成多维的、更加抽象的“神经矩阵”,可能更快洞悉大脑的秘密;
2. 让AI辅助人类变魔术,而不是相反。
将认知能力与脑组织功能之间的空白详尽地填补起来,才有可能真正创造出快速、灵敏、可以评估风险与价值的智能体,中间还有很长的一段路要走,在这之前,拜托不要再将AI神化成魔术师了,它应该是“自下而上”解决问题的工程师,帮助人类“魔术师”奉献出更精彩的表演。
正如一个研究者自嘲的那样,“(过去)我们放弃了设计智能机器人的目标,转而去设计一杆枪,用它去摧毁别人设计的任何智能机器人!”
总而言之,在人类“认知之轮”的最底层,被盖上了一把密码锁。尽管我们自己也不能打开、无法解释,但就是能隔空取物,成为一个真正的智能担当。
谢天谢地,我们安全了。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 美媒聚焦比亚迪“副业”:电子代工助力苹果,下个大计划瞄准AI机器人
- 微信零钱通新政策:银行卡转入资金提现免手续费引热议
- 消息称塔塔集团将收购和硕印度iPhone代工厂60%股份 并接管日常运营
- 苹果揭秘自研芯片成功之道:领先技术与深度整合是关键
- 英伟达新一代Blackwell GPU面临过热挑战,交付延期引发市场关注
- 马斯克能否成为 AI 部部长?硅谷与白宫的联系日益紧密
- 余承东:Mate70将在26号发布,意外泄露引发关注
- 无人机“黑科技”亮相航展:全球首台低空重力测量系统引关注
- 赛力斯发布声明:未与任何伙伴联合开展人形机器人合作
- 赛力斯触及涨停,汽车整车股盘初强势拉升
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。