从机器智能反观人类思维

从机器智能反观人类思维 24 March 2019

一个人在公园里走路也没有什么意思,把今天的想法记录一下这个想法开始的时候可能是刚刚加入实验室实验室分享,强化学习这本书的时候产生的一些想法。神经网络和一些人们反复研究的时序深度学习模型一些迁移学习方法和强化学习方法,实际上是可以非常有效地类比到人类思考和学习的过程之中的。

从仿生学到科学?还是相反?

记得上研究生机器视觉课程的时候老师介绍,人工智能发展历史介绍,到上世纪七十年代还mit的一些工程师,曾经试图使用电路模拟人脑的各个部分,从而使用机器电路达成来模拟人工模拟人类智能的目的,但是这个效果并不理想,后来人们就逐渐的放弃了这个仿生道路造ai的探索。转而使用基础的简单的数学矩阵来表示,神经元的连接利用一些线性的感知机结构和一些非线性的激活函数来描述问题,从而使得各个机器学习的研究方向得以发展。熬到今天人们逐渐用机器和数学公式构造,除了一些累智能的模型和方案,再将这些冷冰冰的数学表示中,反观人类思考和学习的过程。我们发现他们反而有非常相似的一致性。

我认为仿生学的研究往往既是这样,我们大力鼓吹仿生学为人类带来了诸如雷达 声纳等科技成果。实际上是在我们已经探知其科学原理的前提下,甚至已经做出了这样的发明之后才发现仿生学意义。其研究过程与人工智能的发展过程类似。机械的盲目拼凑往往没有意义,仿生学往往不是你真正想达到的科学宝库,而是通向宝库的灵感的钥匙。

人类管用概率而不是推理,强大的泛化能力让人们快速认识这个世界

最近有几个同事探讨为何与介绍的对象网聊是如此困难。而对于一个老朋友,聊天总能顺利进行,什么样的开场也不尴尬。

就像现在的迁移学习模型,和image net和bert等图像或语言的预训练模型一样,人们的大脑,往往无法对一个实体建立全新的参数和识别体系,而通过对某个实体获取的非常少量的信息和你强大的泛化能力,而推断其他属性。

也就是说因为事物之间是普遍联系的 在你出生的那一刻起 接受了第一条来自这个世界的信息之后 就不可能对某件事情的判断不产生倾向 而采用平均分布。比如,我们往往认为养小动物的人更有爱心,但这两个品质又不是绝对关联的。

人们说,这个现在的机器智能系统比人类缺少更多的推理性,而只算概率,其实往往人们也是这样判断问题,只是人们更崇尚理性与推理而更看重他们罢了,事实上人们判断也绝大多数出于概率进行分析,现在概率为基础的人工智能能够大行其道也印证了这个事实。

回到之前的问题,我认为,让一个人了解你少量的事实是可怕的,在他脑中呈现的是符合这一特点的最大概率形象,即使这种分布方差极大。人往往比机器更容易在小范围过拟合,但是因为其巨大量的知识与现实世界建模而得以一定的泛化能力。人类更容易相信他们相信的事实,无数的电影和文学作品说明了这个事实。因为判断过拟合的时候你在判断其他人或模型,而判断自己是否过拟合时却使用的是一个智能,这个快速适应新数据的强大智能系统,在遇到反例时迅速调整,以至于与其共用一个智能的过拟合检查的法官无法发现其本身的过拟合思维。

所以,我们往往对第一印象小心谨慎,而对于老朋友,你做什么事情也很难改变他对你的固有认识,这时候他对你的认识模型的学习率已经非常低了。所以想改变一个老朋友对你的固有认识也是很难的,虽然这不是本文的讨论重点,当我们不想做到这个目的时,聊天就会非常轻松。

而且恋爱和面试不一样,往往需要平衡的表现而不是一味表现你的优秀就可以。于是最终网聊相亲,就变成了一个互相通过少量数据猜测对方,并希望筛选自己的数据在对方模型上优化好感的难题。而且不难发现,其中也有导向双方都不说话的囚徒困境。

巴普洛夫与强化学习

在大四实验室分享《强化学习》这本书的时候,我看到了其中有很多例子,比如巴普洛夫实验中,狗建立条件反射之后,兴奋点从进食移动到响铃了,还有鸽子的实验、老鼠走迷宫实验等。多方面论证了强化学习与人类思维的一致性。时间过得太久,不想赘述,只是写一些结论好了。

所谓经验与直觉,是不是就是我们经过不断强化后的值网络,因为我们也解释不了我们为什么这样选择,那是多种反馈后的一种概率行为指导表。

人类认为自己脑中有语言能力,从而得到了抽象能力、推理能力的长足发展,但是,可能这只是一种普通的条件反射,其他动物也有,只是因为语言能力,或者可能只是因为巧合而发展到统治地球的地位(因为其他动物也有人类没有的其他能力);甚至我们并不是地球的统治者,我们还不清楚。

人类目前对于机器引以为豪的推理能力,是不是就是一种概率意义下的agent动作序列。

解释思维让我感到兴奋,同时也觉得可怕。我不愿意接受机械唯物的我,我希望我是一个自由意识,而不是一个精密仪器。我现在已经不太抵触这样去想那些“非我”了,甚至有时候觉得非常贴切,随着研究的深入,模型的复杂,可能离解释我自己就不远了。

Loading Disqus comments...
Table of Contents