来源:@正和岛标准微博
这是一个AI大爆发的时代。
但AI到底会带来哪些改变,众说纷纭。有技术上的,说可以做PPT,可以写文章、绘图等,也有生产力上的,可以用来科学研究等。
实际上,关于AI,有很多根源性问题值得探讨。比如,AI是否会产生自主意识?AI是否会出现“终结者”?会对人类伦理造成哪些挑战?人类将何去何从?
苏格拉底说:“不经过审视的人生,是不值得过的。”对技术文明,亦是如此。对于AI,不仅仅应该从技术角度思考,更应该从社会、文明,乃至宇宙演化的角度进行“审视”。
前段时间,我们拜访了清华大学心理与认知科学系主任刘嘉教授。他不仅是清华大学基础科学讲席教授,也是北京智源人工智能研究院首席科学家,刘嘉教授聚焦认知科学、神经科学与人工智能交汇点的新兴领域,颇有建树。
刘嘉认为,“AI是一个全新的物种,它正在改变我们社会文明的最底层结构和逻辑,我们的社会正处于转型阶段,人类需要一场全新的进化,人类的认知、教育与生存方式都会发生根本性的改变,大家要充分做好准备。”
以下为访谈精编,Enjoy!
嘉 宾:刘嘉清华大学基础科学讲席教授、清华大学心理与认知科学系主任、人工智能学院教授
访谈人:孙允广正和岛内容总监
编辑:韩筱卉
来 源:正和岛(ID:zhenghedao)
一、AI,会诞生意识吗?
孙允广:萨顿有一篇著名的文章叫《苦涩的教训》,被誉为AI圣经,据说OpenAI的工作人员每天上班前会阅读一遍这篇文章。文中有一个重要观点,人工智能走了一段弯路,过去太依赖算法,而真正带来突破的是规模,通过大规模带来指数级加速进化。
萨顿认为“智慧会自然而然地进化,这是智力的下一个阶段。我们人类终将成为历史,这就是自然进程。”您在书中也讲到,人类大脑的单个神经元并没有意识,但众多的神经元交织在一起,意识就会涌现。您觉得,人工智能会不会涌现出真正的自主意识,这种意识跟人的意识会有什么样的区别?
刘嘉:这个问题要从两个方面来看,第一个是会,第二个是不会,我觉得这两个都是对的。
先说“会产生意识”。
当时,大家认为智能的核心是人类积累的知识,这是符号主义AI,把知识总结后灌输给AI,走了一段弯路。而杰弗里·辛顿(人工神经网络之父)很厉害,他认为人工智能的核心是学习,学习比知识更重要。所以,他做人工神经网络,通俗来讲,是让AI能够学习。而只要神经网络的规模足够大,它就一定会产生意识,因为人类就是这样产生意识的。
人类并不是一开始就有意识,古人类在漫长的进化里一点点壮大智能的物质基础——大脑,慢慢才有了意识。300万年内,人类大脑的体积增加了近三倍,远超其他器官的演化速率。
现在的人工神经网络,也是在想发设法扩大参数量,增强算力,算力远远比算法更重要,只要网络足够大,慢慢地就会有意识。
所以,AI一定会产生自我意识,自我意识一定不是人类独有的,机器一定会产生。
孙允广:这个“意识”和“人的意识”是一回事儿吗?
刘嘉:是的。这里的意识是关于“我”的概念。
像感知世界的浅层次意识,猫也是有的。你踢猫一脚,猫下次见你就绕路走了,对猫好一点,猫也会亲近你,我们谈的不是这个。
我们现在关心的是AI会不会有“我”的概念。如果有,它就会去探索自身的发展和权益,格局就完全不一样,“我”的利益并不一定会和人类的利益对齐。
孙允广:就像我们也不会去对齐大猩猩的利益。
刘嘉:对,而且它比你聪明。一头狮子吃饱了,它不会再去主动进攻牛群;但当我们人类的聪明程度超过其他物种时,我们会把90%以上的动物变成食物、宠物,吃饱了还是想要其他的。
这就是自我意识,是关于“我”的概念。AI一定会产生自我意识,而自我意识是诞生在交互中的。
孙允广:就是社会学和互动中的“关系”。
刘嘉:是的,在社群中才会有“我”的概念。所以,只要参数量足够大,AI和人类交互,AI就一定会产生自我意识。
我们再来说“不会产生意识”。
现在,AI短期内还产生不了“我”的概念。因为它的复杂度还不高,架构还需要进化,还需要继续向人类学习。
人类不是地球上大脑最大、神经元最多的生物,但是人脑的神经元之间的连接方式非常细微。现在的人工神经网络架构还是过于简单,大算力、大数据只是一个必要条件,不是充分条件。
所以,现在AI只是迈出了第一步,称为“通用人工智能的火花”。
目前,我认为AI主要有两个主要的短板没有解决。首先,AI没有自我意识。它更多地被当成工具,尚未参与到文明构建中。第二,AI还没有颠覆性创新的能力。现在它还只会拼凑已有的信息,这只是组合式创新。比如画画,AI只能延续传统画派,而不可能产生一个全新的流派。目前,从0到1的创新能力是人类独有的,而也是人类文明发展的关键之处。
二、人类与AI的3种关系
孙允广:您认为,未来人类与AI的关系会是怎么样的?
刘嘉:按照现在的发展,我认为未来有三条路。
第一条路,AI是人类的工具。但大概率不会发生,为什么?我们不可能指望一个比人类聪明百倍、千倍的物种来做工具。
第二条路,终结者,人类被AI淘汰。聪明的物种把不聪明的物种淘汰,这在历史的进程中屡见不鲜。以人类为例,我们的祖先叫智人,当时与智人同期存在的尼安德特人就被淘汰了,一点都没有留下来。北京的山顶洞人、云南的元谋人,都是被淘汰的亚人种。所以,AI消灭我们,极有可能。
第三条路,“人机合一”。这是最重要的一条路,人类把情感、思维、意识上传到机器中,抛弃肉体,与机器合二为一。
人机合一有什么意义呢?
首先,人的意识在硅基上得到了永生,这是人类最终极的问题,没有任何问题比死亡更加终极。
第二,算力可以无限扩张,因为100个GPU和1万个GPU本质上没有区别,它是可以无限扩展下去的。
第三个,维度可以发生真正地改变,这个具身就不再是你的手脚了,你可以了解四维、五维生物,可以拥有各种各样的身体、变成各种各样的东西。
现在的发展方向之一就是“脑机接口”——把人脑内的思想上传到机器里面去。马斯克为什么要搞脑机接口?大家有个误解,认为脑机接口为了那些高位截瘫的人,其实不是,全世界高位截瘫的人还是占少数,虽然这些人也很重要,但不可能投入这么多资源去解决。所以,从马斯克的角度,他做“脑机接口”,为什么?
孙允广:是星际移民的一部分。
刘嘉:肉体移民是很难的事,需要大量维生系统,而且还很脆弱。但是假设身体是机器,意识情感均附着在机器上,这时维生系统就变成零,人类可以飞向无穷远了,这才是真正的星际移民。
三、新物种诞生?“终结者”来临?
孙允广:在控制论中,一个复杂系统的控制系统,要比这个复杂系统更复杂。同样,也有一个悖论,AI很复杂,但是是人类创造的。一个智慧体能否创造出比自己更聪明的智慧体?
也就是说,人类会不会创造出一个超越人类智慧的物种?AI是否会涌现意识?叠加具身智能,“终结者”真的就来了?
刘嘉:人类创造出超越自己的物种,这是必然结果。
第一,人现在已经超越了自然界给我们的定义,彻底改变了自然界的演化方式。人作为一个基点,已经跳出了自然界进化的束缚,按照人类自己的方法来进化了。
人不仅是环境的产物,也是环境的营造者。从进化的角度来讲,人应该疯狂生育。但是现在,人类已经没有那么强的生育意愿了,我们认为思想的流传更重要,更能改变群体命运,这个被称为Meme(文化基因),是一种全新的基因的进化。
第二,AI教父辛顿就认为,“人类可能只是宇宙演化中的短暂中间态”,人其实只是一个过客,人类只有一个使命,就是从“生物智能”里诞生出“数字智能”。
孙允广:从碳基到硅基。
刘嘉:对,因为自然界不可能演化出数字生命,人的职责就是演化出数字生命,这是比生物生命更加永恒的生命形态。辛顿认为,从宇宙进化的角度来讲,人的目标不是吃喝玩乐、生育、产生艺术等,人类的历史使命只有一个,就是产生数字生命。
人类的短板是显而易见的。
第一,从时间上来讲,人类的寿命有限。这意味着什么呢?假设你的寿命是100岁,即使你从出生就以光速运动,穷尽一生也只能走100光年,100光年是一个非常小的单位,远不足以去探索宇宙的奥秘。
第二,从算力上来讲,人类的理解力有限。人脑的开发已经到百分之百了,我们的算力、智力都进化到极致了。再过100万年,人类的算力也和今天人的算力是一样的,受算力所限,人类不可能去理解很复杂的东西的。
第三,从空间维度来讲,人类的感知受限。我们作为三维生物,永远没法理解四维空间,就像二维生物永远理解不了三维一样。但是这个世界一定存在四维、五维、六维和更高维的空间,这是有科学证明的,人类的感知已经决定了永远被束缚在三维的空间里面。
孙允广:人类是有限的,而宇宙是无限的。
刘嘉:对,人类要进化,就要抛弃掉这个躯体,AI给我们提供了这个机会。
2005年,《奇点临近》的作者雷·库兹韦尔提出,在2029年,AI会通过图灵测试(人类评估者与隐藏身份的机器或真人交互,若机器能在5分钟内让超过30%的评估者误判其为人类,则通过测试。该测试主要用于评估机器是否具备与人类相当的智能水平)。当时连智能手机都没有,流行的还是老款的诺基亚,移动互联网也还没出现,大家都觉得这绝不可能。
2024年,AI通过了图灵测试,看来,库兹韦尔预测得还是太保守了。
库兹韦尔是谷歌的一位未来科学家,去年他又写了新书叫《奇点更近》,主要观点是在2040年到2050年,人类就可以把自己的情感、意识上传到机器上,也就是“人机合一”。这时我们就可以获得永生。不出意外的话,我们都能见证。
四、活到100岁不是梦
孙允广:目前的AI,能带来的最大价值在哪些领域?
刘嘉:它能加速科学的发现和研究,把百年的科研进展压缩到5年、10年,进而改变社会的底层逻辑。
一个最经典的例子,原来一位有经验的博士需要1-5年去研究一种蛋白质,所以过去的几十年,大家一共研究的蛋白质就是几万种。
但是AlphaFold2(由DeepMind开发的革命性AI系统,专注于通过氨基酸序列预测蛋白质三维结构)用两年时间,就把地球上两亿蛋白质的结构全部解析了。假设让人解析,大概需要几千年的时间。
DeepMind的老总戴密斯·哈萨比斯有一个很超前的结论,AI十年内可以治愈所有疾病。那么,我们大胆预测,人现在的寿命大概是70到80左右,而到时候我们能轻轻松松活到100岁了。
现在很多人50岁时已经在考虑退休生活,但如果我们能高质量地活到100岁,那50岁人生也才刚刚过半,70岁正是当打之年,完全没有癌症、心血管等各种疾病的困扰了。
我们且不说永生,但人的寿命延长是一件铁板钉钉的事情,职业生涯规划、人生规划都会相继改变。
孙允广:将来人也可能会跟机器人谈恋爱,人类的价值观会发生很大的变化。
刘嘉:一定会的。宠物经济为什么会火起来?因为宠物能给人充足的情绪价值。但是,小猫、小狗提供的情绪价值远没有AI高,这完全不是同一个量级的,AI能更好地和人交往。
AI情感陪伴的商业化目前还不错。这个行业挣的钱远远比开发大模型多,为什么?AI在完全了解你的基础上做个性化定制,百依百顺,这是人做不到的。而且,他不仅智商高,情商也极高,他可以对你百依百顺,还能按照你希望的跟你有来有回、拌嘴逗乐,都没有问题。
AI养老陪伴也有非常大的潜力空间。首先,社会需求巨大,一对父母一个小孩,一个小孩有爷爷、奶奶、外公、外婆、爸爸、妈妈,倒三角结构不可逆,一个小孩没有那么多时间同时去养4位老人,机器人养老可以补位。另外,虚拟现实技术也跟上了,以前VR场景里的“人”还不够智能,现在智能性足够,所以AR、VR一定会火起来。
现在我们的社区是人与人的社区,马上就会变成人与机器、机器与机器的混合社区。到那个时候,我们的伦理、道德、法律都会发生本质的变化,因为AI的出现,社会将会被重塑。
孙允广:这可谓是“旧秩序已经崩溃,新世界加速到来”。刘慈欣有一本小说叫《赡养上帝》,讲人类被机器保护得太好了,最终导致人类失去了基本技能,也失去了学习和创新的能力,成为“科技婴儿”。
刘嘉:我不太赞成这种说法。
我们来看科技的发展,农耕社会时期,每个人要种地、纺布,才能养活一家人;工业革命大量解放了生产力,一个人可以耕地百亩,养活很多人。但不耕地的人并不是就不工作了,从土地中解放出来的劳动力极大地促进了社会真正的发展。
工业革命之后,GDP、人口数量均呈非线性增长,当人从重复性劳动中解放出来后,就会产生出新的创造力,我们现在的教育、艺术、科技、文化,其实都是工业革命带来的。
回到现在也是一样,工业革命时期需要“有知识的工人”,大家都拼命学知识、学技能,但现在知识普及了,只要会使用ChatGPT,初中文凭和大学文凭都能得出同样的答案。
AI把我们从一些重复性、知识密集型的工作中释放出来了。今年是程序员失业的元年,机器可以替代一个最顶尖的程序员80%的工作量。于是,律师、程序员、医生、教师会大量失业,就跟当年大量的农民、纺织工、马车夫失业一样。
知识不稀缺了,稀缺的是智慧。人类不会躺平的,人类需要一场全新的进化,开辟出新的道路来,这又是一个新的迭代。
我们要重新反思现代教育,我们学得还对吗?工业革命时代,国内外大学普遍通过学术研究与专业技能相结合,培养工业技术领域的专才以推动技术革新。
而智能时代,通识教育显得格外重要。我们把跨学科的知识称为“博”,高尚心灵称为“雅”,因此通识教育也被称为“博雅教育”。学生们要不设限地思索让他们好奇的任何问题,从而内心充盈,获得自由。
我不认为现在的智能时代是第四次工业革命,它比工业革命彻底很多。
这也是我写《通用人工智能》这本书的原因,AI是一个全新的物种,它正在改变我们社会文明的最底层结构、逻辑,我们的社会正处于转型阶段,人类的认知、教育与生存方式都会发生根本性的改变,大家要充分做好准备。
五、AI将带来生产力大爆炸
孙允广:刘慈欣在小说《赡养人类》中,借科幻提醒人类,超级科技的发展可能会导致财富分化极度不均。里面有一个被称作“第一地球”的世界,里面出现一个“终产者”,一个人掌握了99%的财富,所有陆地、海洋甚至空气都属于他的,其他人都是贫民,呼吸外界空气都得向他付费。
有没有可能,将来有资本的人通过脑机接口一下子植入20年的教育成果,而穷人却植入不了,进而导致社会严重层级化?
刘嘉:我觉得这还是工业革命时代的“资源有限论”,这源于农耕时代,土地有限、产量有限,只能养活一定数量的人。
但从人类的进化来看,工业革命提高产量,提高生产效率,便能产生远超农耕时代的大量资源,养活更多的人。而AI时代会带来更多的资源,这种资源多到人根本用不完。
孙允广:所以,您对于技术的发展是比较乐观的,它可能会产生问题,但会在发展中解决。
刘嘉:对。萨姆·奥尔特曼(OpenAI联合创始人、首席执行官)在做Universal basic income(UBI,无条件基本收入)实验。在萨姆·奥尔特曼看来,AI带来的资源极度富足,将让世界从“按劳分配”进入到“按需分配”,走入真正的大同世界。
他认为AI使生产力快速上升、商品价格大幅下降,产生的财富太多了。每个月免费给每人提供13500美元,这些钱足以养活自己了。
从进化的第一天开始,38亿年,所有的动物都是在为了生计而活,当然包括此时此刻,我们戏谑地自称“社畜”“牛马”。可如果萨姆·奥尔特曼的设想成立,那人类将不再为生计所迫,而是真正地为自己而活,这时候只需要思考“我想要什么”。
所以,AI时代带来的最大好处之一就是,因为效率提升,使资源极大丰富。
六、未来3个大爆点:
机器人、脑机接口、人机融合
孙允广:除了看长远未来,也要看中短期。未来5到10年,您觉得AI会使哪些商业领域加速成长或者集中爆发呢?
刘嘉:我觉得是三个。
第一,机器人。现在国内的机器人还不太成熟,基本都是从自动化方向的工业机器人转化来的,本身不具备思考能力,也不具备具身能力。
我们在谈“具身智能”时有一个误解,不是有身体、能走路的就叫具身智能,这只是形似。具身智能是指感知能力(快速处理事件)和运动能力(适应环境,并根据环境变化自主做出响应),但目前并没有很好的解决方案。所以,现在的具身智能技术尚处于婴儿阶段,属于“preGPT时代”,离机器人商业化还有一段时间。
第二,脑机接口。脑机接口现在也属于“preGPT时代”。现在很多脑机接口在做电极,这其实还比较初级。GPT时代真正最重要的是——解码大脑的能力,比如,我现在想把一个东西拿起来,大脑发出指令,经过神经元传递到肌肉。那么,AI是否能读出这个指令,如果可以,那后续操作就很简单了。
解码大脑的作用在于“认知增强”。
举个例子,20年前,2005年的时候,我们还用按键式手机,当时内存不够,我们要手写电话簿,真正打电话时,还要查阅、再手动拨通。现在内存完全够了,我们的记忆力在手机上体现了,可以任意存储、随时拨通号码,而且手机读取的速度和你在大脑里回忆的差不多,甚至更快,这就是认知增强。包括智能手机直接搜索信息、法律法规等,这都是手机相对于人类的认知增强。
但是,这种认知增强远远不如大模型的增强厉害,大模型上有世界上所有的知识,通过脑机接口连接大模型,就不用再去苦学几十年了。
孙允广:可以随时调取,相当于在脑袋里插了一个外部硬盘。
刘嘉:对,到那个时候,人的智商会得到极大的提升。而且,这是一种真正意义上的平权,不存在谁比谁聪明很多了。比如,我们常说受环境、教育等外部因素,一线城市的孩子比五六线城市孩子的视野、知识广度强很多。而大模型会消除掉这种差异,让一切平权。
至于大家说大模型真的很贵,但这是一个工程问题,一旦突破,很容易解决。就像90年代的“大哥大”是稀罕物,现在手机人手一个一样。
孙允广:技术将来会普惠化。
刘嘉:是的,将来会人手一个大模型,而且是独有的,不是连到互联网上。到时,天文地理无所不知,人类的智商会发生本质的飞跃,一切尽在掌握之中,我认为这是脑机接口真正的含义,而这个核心在于脑科学的进展。
第三,人机融合。这也是最关键的,把人类的情感、意识上传到机器里面去。
这可能现在说起来还有些科幻,但我们回想下,AI的发展有多快。2020年5月,GPT3发布时,大部分专家还觉得没有价值。时隔两年半,2022年底,GPT3.5发布,那简直惊为天人。如今,AI已经深入到我们生活的各个方面了。
萨姆·奥尔特曼提出“温和的奇点”的概念,他认为人工智能的进步已不可逆转,且其正以渐进而非爆发的方式重塑人类社会。其“温和性”体现于技术以相对平和、渐进的方式发展,能让社会有更充分的缓冲空间去适应技术变革。
我们这些当事人是无感的,所以是温和的奇点;但实际上,这种改变非常剧烈。
七、大模型,也有主权意识
孙允广:不同国家的知识、社会文化,甚至思想意识都是不一样的,您认为大模型会不会有主权?
刘嘉:这是大模型现在最大的问题。大模型是根据文本学习而来的,只要是文字,就会带有意识形态,世界观、人生和价值观。
第一,虽然大模型的三观是多元的,但是输入和选择什么样的文本是开发者决定的,开发者多为该领域的专家,所以,观点前瞻但也相对激进。
第二,大模型训练普遍采用蒸馏技术,就像老师指导学生一样,利用已经训练好的复杂大模型输出的数据,指导更小型、更高效的模型进行训练。那老师是什么观点,学生如是。所以,中国的大模型有不少是来自对西方大模型的蒸馏,难以避免地继承了西方大模型的三观。
第三,大模型所传递出来的三观并非是旗帜鲜明的直接表达,多数是隐晦的。可能是通过举例、推导等,含蓄地表达出观点,这就很难检查、纠正。
所以,这也导致了两个非常严重的问题:
其一,高度同质化。按照国家、民族、区域等来划分群体,人类本来是多元的,“和而不同”是我们自古追求的最高境界,是世界的思想瑰宝。但大模型会没有痕迹地把全世界的三观统一起来,哪怕输入和输出的语言不同,观念也是一致的。
其二,很难“对齐”。对齐是指确保AI系统的目标、意图和行为始终与人类的价值观、目标以及利益保持一致。唯有如此,才能确保未来的人工超级智能真正成为人类文明的保护者与伙伴,而非人类的终结者。对齐问题被公认为是AI时代最核心、最紧迫的挑战,没有之一。
但是AI对齐,从根本上是一个哲学性难题。其一,大模型本身就已经通过知识产生三观了,如何与人类对齐?这可能只是文本表面的“对齐”;其二,“人类自己都无法就价值观完全达成共识,又如何让AI对齐一个不存在的唯一标准?”
所以,每个国家必须要有自己的大模型。而且,大模型必须要从根基做起。至于如何改变它,这是我们人类需要共同面对的重大问题。人类最宝贵的就是多元化,多元化才使得文明有了生机,就像生物多样性才能保持平衡一样,绝对不能趋于同质化。
排版 | 小禾编辑 | 允允主编 | 孙允广
相关推荐
“缺乏信仰”是我国AI落后的主因,清华教授真这么说的?
我国AI为何落后?清华教授称国人缺乏信仰、不愿当炮灰
清华教授离岗创业,做出一个超240亿IPO
顶级AI视觉领域教授,朱松纯回国任教清华
都怪清华?中国版Open AI开卷五道口
清华教授创业,红杉、高榕都投了
亚布力重磅话题:AI,到底在颠覆什么?
最近,清华系创始人太火了
马化腾在清华与汤晓鸥、钱颖一等教授都产生了哪些“激情”碰撞
我是清华新任教授张亚勤,现在只想做成这一件事
网址: 重磅!清华教授刘嘉:AI大爆炸,将带来什么? http://m.xishuta.com/newsview140975.html