神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:艾弗拉姆·诺姆·乔姆斯基,美国哲学家。是麻省理工学院语言学的荣誉退休教授。乔姆斯基的《句法结构》被认为是20世纪理论语言学研究上最伟大的贡献。本文作者Andrew Kuo是一位数据科学家,他与诺姆·乔姆斯基进行了电子邮件交流。询问ANNs(人工神经网络)最近的发展是否让他重新考虑他著名的语言学理论普遍语法(Universal Grammar)。谈话涉及到深度学习可能的局限性,ANNs对生物大脑的建模效果到底如何,还间接涉及了更多的哲学领域,乔姆斯基认为,道德表现在大脑中,道德是一个生物系统。所有深度学习突破都发生在非常特定的领域,通用人工智能目前还不太可能。原文标题《Noam Chomsky on the Future of Deep Learning》。
图片作者:Nathan Saad
诺姆·乔姆斯基首先是一位语言学教授(许多人认为他是“现代语言学之父”),但在学术界之外,他作为活动家、哲学家和历史学家可能更为人所知。他著有100多本书,在2005年《外交政策》和《前景》杂志进行的一项民意调查中,他被选为世界顶尖的公共知识分子。
郑重声明,我是乔姆斯基作品的推崇者,特别是他对美帝国主义、新自由主义和媒体的批评。我们的观点略有分歧的地方,是关于他对大陆哲学家(尤其是法国后结构主义者)的否定。也许我在成年早期就因过于频繁地受到福柯、拉康和德里达的影响,但我一直认为乔姆斯基的哲学分析方法在道德上很有吸引力,但有点过于“干净”,无法令人满意地解释我们的世界。虽然他对这些后结构主义名人的不屑一顾是显而易见的,但乔姆斯基的哲学观点比他的诋毁者给他的评价更细致。
我首先声明,我不是一个语言学家,但在这一部分,我将尝试对通用语法理论进行概述。在乔姆斯基之前,语言学界的主流假说是,人类出生时的思维是“tabula rasa”(像一块空白的石板),通过强化来习得语言。也就是说,孩子们听到父母说话,他们就会模仿听到的声音,当他们正确使用一个词或结构一个句子时,他们就会受到表扬。乔姆斯基所表明的是,强化只是其中的一部分,人脑内一定存在着普遍的、有利于语言习得的先天结构。他的主要论点是:
1、儿童习得语言的速度太快,而且学习的数据太稀疏,无法用强化学习来解释(也就是所谓的“刺激贫乏论”)。
2、动物即使呈现在与人类相同的数据,也无法习得语言。20世纪60年代有一个著名的实验,语言学家试图教一只黑猩猩(名为“Nim Chimpsky”)学习手语,但10年后,它除了完成一些初级任务外,仍然无法进行交流。
3、人类的语言之间都有共性。这说明,即使语言是独立发展起来的,但由于所有人类大脑的共同结构,也会表现出一些普遍的特征。
4、儿童并不是硬生生地被赋予了学习特定语言的能力。如果你把一个出生在肯尼亚的孩子带到德国抚养,他们就会像德国孩子一样容易掌握德语。
这种关于基因硬编码语言能力的理论,在科学界得到了广泛的认可,但接下来的问题显然是“这种通用语法究竟是什么样子的?”。研究人员很快就开始发现所有人类语言的共同属性,但对于我们与生俱来的语言能力以何种形式存在,仍然没有达成共识。可以肯定的是,通用语法并不是由具体的语法规则组成,而更可能是一种基本的认知功能。乔姆斯基曾推测,在我们历史上的某个时刻,人类发展出了执行一种简单的、递归过程的能力,称为“合并”(Merge),这就是我们在人类语言中看到的句法结构的属性和约束的原因。这个过程有点抽象(太过复杂,在这里无法好好讨论),但本质上“合并”就是把两个对象组合成一个新对象的过程。虽然看似平淡无奇,但在心理上组合概念的能力,而且是递归式的组合,是非常强大的,可以让我们构造出“无限多样的层次结构表达”。这种微小但关键的基因飞跃不仅可以解释我们的语言交流能力,还可以由此推断,它可能是我们的数学天赋和更广泛的人类创造力的原因(至少部分原因)。这种“合并”突变发生在我们的一个祖先身上约10万年前,可能是将人类与其他动物区分开来的关键之一。
我与乔姆斯基教授取得联系的主要原因,是想听听他对人工神经网络的看法(这个话题我比语言学了解的实质性更多)。ANNs是机器学习模型的一个子集,它们松散地以人脑为模型,并以类似的方式(通过看到大量的例子)进行学习。这些模型只需要很少的硬编码,并且可以用相对简单的架构执行相当广泛的复杂任务(例如图像标记、语音识别、文本生成)。这种方法的一个有启发意义的例子是谷歌开发的AlphaGo Zero模型,它学会了下围棋(一种复杂而具有挑战性的棋盘游戏),并最终成为人类世界冠军的不败之地。最令人印象深刻的是,它是在没有任何硬编码或人为干预的情况下训练出来的,也就是“像一块空白的石板”。虽然ANNs对于人脑来说肯定不是一个完美的类比,但我问乔姆斯基教授,这些模型是否表明,其实我们并不需要硬编码的认知结构来从分散的数据中学习。
照片:Josh Riemer on Unsplash
乔姆斯基正确地指出,ANNs对于高度专业化的任务是有用的,但这些任务必须受到严格的限制(尽管考虑到现代计算机的内存和速度,它们的范围可能会显得很大)。他将ANNs比作在高楼大厦上工作的巨大起重机;虽然肯定令人印象深刻,但这两种工具都存在于有固定界限的系统中。这种推理与我的观察一致,即我所见证的所有深度学习突破都发生在非常特定的领域,我们似乎并没有接近任何类似人工通用智能的东西(不管那意味着什么)。乔姆斯基还指出,越来越多的证据表明ANN并不能准确地模拟人类的认知,人类的认知相对来说非常丰富,所涉及的计算系统甚至可能延伸到细胞层面。
如果乔姆斯基是对的(我认为他是对的),对深度学习研究的发展有什么影响?归根结底,人脑并没有什么神奇的地方。它只是一个由原子组成的物理结构,因此,我们完全有理由相信,在未来的某一天,我们也许能够创造出一个能够实现通用智能的人工版本。话虽如此,但目前的ANN只提供了这种认知的模拟,按照乔姆斯基的逻辑,如果不首先改善我们对有机神经网络运作方式的理解,我们就无法达到这个下一个领域。
照片:Sean Foster on Unsplash
人工智能的道德问题是现代数据科学家的一个突出问题,但在一个原本具体的领域中,这个领域有时会让人感到模糊和主观。乔姆斯基的工作不仅为深度学习的未来提供了独特的技术视角,“通用语法”还具有深刻的道德意义,因为语言是我们讨论和解释世界的方式。例如,乔姆斯基的观点是,上述先天的神经结构排除了道德相对主义,一定存在普遍的道德约束。道德相对主义有许多不同的意义,但其核心宗旨是,道德的认定不可能有客观的依据。道德相对论者断言,虽然我们可能深深相信“奴隶制是不道德的”这样的说法,但我们没有任何经验方法向不同意的人证明这一点,因为任何证明都必然依赖于价值判断,而我们的价值观最终是外生的,由文化和经验决定。
乔姆斯基认为,道德表现在大脑中,因此,从定义上看,道德是一个生物系统。所有的生物系统都有变异(自然的和由于不同的刺激而产生的),但它们也有局限性。考虑一下人类的视觉系统:实验表明,它含有一定的可塑性,并且是由经验形成的(特别是在幼儿期)。通过改变提供给人类视觉系统的数据,你可以改变受体的分布,从而改变个体对水平线和垂直线的感知方式。然而,你不能做的是把人眼变成虫眼,或者给某人看X射线的能力。乔姆斯基认为,生物系统(包括道德)可以有相当大的变化,但不是无限的变化。他接着说,即使你相信我们的道德完全来自于文化,你仍然需要以获得任何系统的方式来获得这种文化(因为先天的认知结构具有普遍性)。
我对这种解读最初持有保留态度,如果我们假设道德只是“合并”(或同样原始的东西)的结果,那么虽然这可能会带来理论上的限制,但我的直觉是,我们的道德可能会有如此巨大的差异,以至于实际上不可能做出普遍的陈述。过去,乔姆斯基曾讨论过道德的进步,似乎是如何遵循某些趋势的(如接受差异、拒绝压迫等),但我很难看出这些大的趋势是如何从这样简单的原子认知结构中持续出现的。当我向乔姆斯基教授提出这个问题时,他认为这种观点是虚幻的,当我们不理解事物时,它们看起来比实际情况更多样、更复杂。他举了一个例子,自寒武纪大爆发以来,在动物身体中看到的变化。仅仅在60年前,生物学的主流观点是,生物体的变化非常剧烈,以至于每个生物体都必须以个体为基础进行研究,但我们现在知道,这是完全错误的,物种之间的遗传变异相当轻微。复杂的后天系统的变异一定是最小的,否则我们就无法获得它们。
(译者:蒂克伟)
相关推荐
对话乔姆斯基:语言、道德、人工智能和深度学习的未来
对话深度学习奠基人特伦斯:AI的进化动力与终极限制
少数派的未来猜想 | “说人话”的情感机器人,未来还会承包你的搜索引擎和App
20条理由告诉你,为什么当前的深度学习成了人工智能的死胡同?
图灵奖得主Bengio:深度学习不会被取代,我想让AI会推理、计划和想象
为什么人工智能各种完爆人类,但依旧听不懂你在说什么?
多媒体领域中,深度学习有何进展?
对话达摩院科学家:阿里人工智能这五年
「玩秘」AI语音对话助理服务在小米手机上线,语言多样性覆盖度已达76%
银河系漫游之语言指南
网址: 对话乔姆斯基:语言、道德、人工智能和深度学习的未来 http://m.xishuta.com/newsview35865.html