从机器学习先驱到最坚定的AI反对派:一个大师的复杂内心戏

Judea Pearl帮助AI在概率计算上取得了巨大进步,但是仍然叹息道:AI在因果关系计算上无能为力。

从机器学习先驱到最坚定的AI反对派:一个大师的复杂内心戏

  • 大数据文摘作品
  • 编译:张南星、傅一洋、郑璇真

Judea Pearl帮助AI在概率计算上取得了巨大进步,但是仍然叹息道:AI在因果关系计算上无能为力。

AI得以发展到今天的聪明才智,离不开Judea Pearl的功劳。20世纪80年代,他带领一批人实现了机器的概率推导。

而现在,他却成为了AI领域最坚定的反对派之一。在他最新的一本书《疑问之书:因果关系的新科学》(The Book of Why: The New Science of Cause and Effect)中,他指出AI进步最大的一个掣肘在于,对“智能”到底意味着什么的基本性认识不足。

三十年前,AI研究最大的挑战在于,如何通过编程让机器学会将潜在的原因与所观察到的现状进行联系。Pearl通过一个叫做贝叶斯网络的方法解决了这个问题。

贝叶斯网络让机器能够将现象与可能的原因联系起来:比如有一个病人刚从非洲回来,有发热和头痛的症状,那么最可能的解释就是他感染了疟疾。Pearl也因为这项成就获得了2011年的图灵奖——计算机科学界的最高荣誉。

但正如Pearl所看到的那样,AI领域陷入了概率关联的泥沼。如今,社会被各种吹捧机器学习和神经网络最新研究突破的文章所淹没。我们总是能读到诸如机器掌握了传统游戏的玩法、学会了驾驶汽车之类的文章。Pearl对此无动于衷,在他看来,如今的AI只不过是上一代机器的加强版:从一大堆数据中找到隐藏的规律。

“所谓深度学习所取得的重大成就,加起来不过就是曲线拟合,”他说道。

81岁的Pearl在他的新书中详细阐述了真正拥有智能的机器的思考方式。他认为机器真正拥有智能的关键在于能够使用因果推论,而非通过相关关系推论。

例如,仅仅做到将“发热”和“疟疾”联系起来是不够的,机器还要能推导出“疟疾会导致发热”。一旦这种因果的框架建立起来,机器就有可能提出一些反事实问题——如果施加某种干预,那么因果关系将会发生什么变化——Pearl视之为科学思考的里程碑。

同时,Pearl还提出了一套实现这种思考方式的形式语言——21世纪版本的贝叶斯框架,让机器能够概率性的思考。

Pearl期望因果推理能够赋予机器人类级别的智能。他解释说,在这种级别的智能下机器能够与人类更有效地沟通,甚至进行道德层面的交流,因为它们已经具备了自由意志——当然,也会有罪恶念头。

从机器学习先驱到最坚定的AI反对派:一个大师的复杂内心戏

Quanta 杂志社最近在圣地亚哥的一个会议上与Pearl取得了联系,并在会议后对他进行了电话采访。以下是删选过的采访内容:

Kevin Hartnett:为什么给新书起名叫作《疑问之书》?

Judea Pearl:这本书涵盖了我过去25年所做的关于因果关系的工作,即因果关系在一个人的生命中意味着什么,因果关系的应用,以及我们会如何根据固有的因果关系来答问。奇怪的是,这些问题都被科学界抛弃了,我在此就是想弥补科学界对于因果关系的忽视。

H:科学界舍弃了因果关系这种说法还挺让人惊讶的。这不正是科学的全部吗?

P:当然,但是你没法通过科学方程式实现这个愿望。代数语言是具有相称性的:如果x能推导出y,那么y就能推导出x。我是在说必然关系。但是我们没法使用数学语言描述一些简单的事实——比如,即将到来的暴风雨会让气压表的读数下降,而不是上升。

数学中不存在描述不对等关系的语言,诸如如果x导致了y,并不意味着y一定会导致x。我知道反对科学听起来非常可怕,如果我对我妈这样说,她可能会奖励我一巴掌。

但是科学是非常宽容的:当注意到我们缺少描述不对称关系的演算之后,科学会鼓励我们去创造一个。这时数学就发挥了很大的作用。当我意识到一个很简单的因果关系演算就能解决问题时,我整个人都惊呆了,当今最厉害的统计学家都会认为这个方法非常糟糕或者根本无法解决问题。但其实,所有这些我们能很轻松的在高中几何学中找到证明。

H:几十年前,您曾通过指导机器进行概率推导而在AI领域取得了盛名。能解释一下当时AI界发生了什么吗?

P:在20世纪80年代早期出现的问题是人们对于预测和分析诊断本质的思考。当医生观察一个病人的一系列症状时,他会得出这个病人罹患疟疾或者其他疾病的概率。我们希望自动化系统、专家系统能够代替专家——不论是医生、是矿物探寻者、还是别的什么需要付钱聘请的专家。在那个时候,我就想着能不能用概率的方式解决这个问题。

不幸的是,标准的概率计算模型需要巨量的空间和时间。我想出了一个叫做贝叶斯网络的算法,只需要多项式时间,并且过程非常透明。

H:另外,在您的新书中,您称自己为当今AI界的叛徒。这是什么意思呢?

P:事实上,在创造出了帮助机器对不确定性进行推导的工具之后,我给这个领域引入了一个更具挑战性的任务:对因果关系进行推导。许多AI界同事还在执着于不确定性研究,许多研究还在以分析诊断为核心,无需考虑问题的因果关系。他们想做的就是得到好的预测结果和分析诊断结果。

我可以举一个例子。现在所有我们看到的机器学习的研究都是以诊断模式执行的——即,给事物打上“猫”或“老虎”的标签。他们不在乎“例外情况”,他们想要的只是识别物体,以及预测时间序列下物体的变化。

当我创造出预测和诊断分析强有力的工具的时候,我就觉得自己像个叛徒,因为我知道这只是人类智能的冰山一角。如果我们想要机器能够对某些干预下的“例外情况”进行推导(例如,如果我们禁烟会怎么样?),或者进行反省性思考(例如,我高中毕业后会做什么?)时,我们必须使用随机模型。相关关系是远远不够的——这是因为数学本身的客观缺陷导致的,而不是个人主观想法。

H:人们都对AI未来可以做到的事情充满了希望,而你不是?

P:当我看到越来越多深度学习的研究之后,我觉得他们都在相关关系的层级上停止前进了,譬如曲线拟合。虽然这听起来有点残酷,但所有令人印象深刻的深度学习研究成就加起来,实质上不过就是把曲线拟合到数据上。从数学层级的角度来看,无论在处理数据、分析数据时多么熟练,都不过只是一个曲线拟合练习,尽管这个过程复杂且繁琐。

H:你谈论曲线拟合的方式,让人觉得机器学习的成就并没有怎么打动你。

P:不,我印象很深,因为我们原本并没有期望能够通过简单的曲线拟合能够解决很多问题,但事实上它做到了。我抱有怀疑的是关于未来的发展——接下来我们能期待什么?我们是否能创造出一个机器人科学家,做出试验计划,找到未解决科学问题的新答案?这是我们接下来要做的事情。

我们同样希望能够与机器进行有意义的沟通,而有意义则意味着符合我们的直觉。如果你没法让机器人具备因果关系的直觉力,那么就无法与之进行有意义的沟通。机器人不会说出:“我原本可以做的更好”这样的话,而这是你我天生就能做的。这样,我们就失去了沟通的一个重要渠道。

H:那么对于机器掌握了因果关系直觉力的未来,我们可以期待什么?

P:我们需要给机器部署环境模型。如果机器没有现实模型,那么我们就无法期待机器在现实中表现得很智能。首先第一步,也许是10年之内会发生的事情,就是人类给机器部署现实概念模型。

下一步,机器将基于这些模型,自行基于历史经验验证或定义新的模型。这也就是科学界的工作方式,例如,我们从由圆形及本轮组成的地心说模型开始,最后以椭圆轨道的日心说结束。

同样,机器人也能彼此交流,并能把这个假想的、野蛮的世界,转为隐喻式的模型。

H:当你和正在AI领域工作的人说起这些想法的时候,他们是什么反应?

P:AI界如今各分天下。如果给那些沉醉于机器学习、深度学习以及神经网络成就的人说我这些想法的话,他们并不会理解我。他们只想继续曲线拟合。但如果和那些在AI界中非统计学习领域工作的人讲,他们很快就会领会我的意思。过去这两个月,我已经读到了几篇关于机器学习局限性的论文。

H:你的意思是不是说,在机器学习之外有一些别的趋势呢?

P:不是趋势,而是一个严肃的意志探索之旅,我们需要不断地自我拷问:我们要去哪?下一步要做什么?

H:这正好是我最想问你的。

P:我很高兴你没问我关于自由意志的问题。

H:那么,你是怎样看待自由意志的?

P:我们未来一定会创造拥有自由意志的机器人,这点毫无疑问。我们需要思考的是怎么实现这一点,以及我们希望从中获得什么。由于某些原因,进化让自由意志之感知在计算机层面变得可实现。

H:怎么说?

P:进化让我们具备了自由意志的感知。显而易见,进化遵从于一些计算函数。

H:如果机器人拥有了自由意志,会有很明显的特征和信号吗?

P:我认为第一个特征就在于,机器人开始出现一些反事实的交流,譬如说:“你本应该做的更好”。如果一队正在踢足球的机器人开始以这样风格的语言进行交流了,那么我们就知道它们某种程度上拥有了自由意志。“你应该把那个球传给我的——我在等你,但是你没这样做!”“你本应该……”意味着你本可以做到一些冲动和欲望之下你想做的事情,但是你没能做到。所以第一个信号会是交流形式的变化,第二个会是行动上的改进。

H:现在你已经谈了很多关于自由意志的内容,也许是时候问一下你关于罪行的问题了。罪行往往建立在有能力做选择的基础之上。什么是罪恶?

P:罪恶就是当你的贪婪或者不满超过了所有常规社会标准时,你内心存在的意念。譬如说,一个人内心有类似于软件模块的定义说:“你饿了,因此你被准许采取一些行动来满足你的贪婪或不满。”但同时,有别的模块规定你需要遵守社会规章制度,其中一个叫做同理心。当你把你的不满提升到这些通常意义上的社会规章制度之上时,罪恶便随之产生。

H:所以我们如何得知AI具备了犯罪能力?

P:一个征兆就是机器人持续地忽略部分软件组件,或者当机器人开始遵从一些组件的指令而忽略掉别的组件,尤其是当它们忽略了那些让它们遵守基本行为准则的组件,而这些组件或者已经被部署在它们内部,或者本来是希望它们基于历史学习进行获取的。而机器人却不再遵从。

相关报道:

https://www.theatlantic.com/amp/article/560675/from=singlemessage&isappinstalled=0

本文为专栏文章,来自:大数据文摘,内容观点不代表本站立场,如若转载请联系专栏作者,本文链接:https://www.afenxi.com/54984.html 。

(1)
大数据文摘的头像大数据文摘专栏
上一篇 2018-06-01 23:37
下一篇 2018-06-03 22:53

相关文章

关注我们
关注我们
分享本页
返回顶部