李飞飞自传《我看见的世界》真诚且好看,而且还很讲究叙事技巧。
她的自传同时讲了两个故事:一个故事讲的是成长,是李飞飞15岁从成都移民到美国,从语言不通到今天成为一位世界级人工智能科学家的故事;另一个故事讲的是今天全世界最让人关注的科技革命,人工智能技术的发展,以及她在里面扮演的角色。
这两个故事,都是历险,但也都有好的结果。
一
李飞飞的父母很了不起。
按照李飞飞的描述,她的父亲在化工厂的计算机部门工作,母亲先是高中老师后来是办公室职员。她的父母应该都是很有聪明才智的人,比如她的父亲会自己动手组装带挎斗的自行车,她的母亲会带着她读鲁迅的书及《道德经》《第二性》《老人与海》《双城记》这样的文学名著。在那个年代,这绝对是典型的中国精英家庭。
同样典型的是,她的父母会为了自己的价值观和下一代,牺牲自己这一代可能的职业成就,移居到美国,让下一代有了可能去获得更好的教育、更好的成长。牺牲是巨大的:到了美国之后,她的父亲找了一份修理相机的工作,她的母亲则做了一名收银员,最后的巅峰是他们家开了一家干洗店。
这可能也是第一代移民很典型的经历——第一代人都要做好牺牲掉自己职业生涯的准备。
对于李飞飞而言,青少年的生活艰辛,尽管她并没有刻意渲染,但是叙述的不经意间,贫穷的寒意就从文字中间流露出来。
她会说,衣服的问题在大学时期得到解决,是因为“普林斯顿大学的学生很有钱,所以在这里上学的一个好处是,宿舍的洗衣房里堆满了被丢弃的衣服”。到大学时第一印象基本都跟吃的有关,“校园好像梦境一样,我这辈子见过的饭菜种类都没有食堂里那么多”。她的一位老师喜欢上午先喝一杯卡布奇诺,她会一起去,但是“我个人的经济状况并不支持我养成喝咖啡的奢侈习惯”。
与此同时,她很幸运地拿到了普林斯顿大学的奖学金,然后在大学时期,她的兴趣从物理学迁移到了计算机科学和人工智能。接下来,从参与加州大学伯克利分校的一个实验项目开始,她一步一步地进入到了计算机视觉领域的最前沿,直到成为人工智能领域的顶级科学家,被世界看到。
二
李飞飞是最早意识到数据在人工智能研究中重要性的科学家之一。
我理解让李飞飞在人工智能领域成名的一个主要原因,是她的实验室最早建立起了一个拥有超大图片数据的数据集ImageNet。而当时数据在人工智能或者说计算机视觉的研究中并不被重视,这是一个冒险的选择。
用李飞飞在自传中的话说:“在2006年,算法是计算机视觉的中心,而数据这个话题并不十分吸引人…...数据生活在算法的阴影之下,仅仅被视为训练工具,就像成长中的孩子玩的玩具一样。”
到了今天,所有人都已经认识到,人工智能革命由三股力量共同推动。
第一股力量是算法。具体而言,是当时少数科学家坚持的神经网络算法,比如杨立昆的LeNet、杰夫里·辛顿的AlexNet,是今天谷歌的Transform。
第二股力量是硬件。具体而言,是英伟达的图形处理器GPU。
GPU是为网络游戏开发的硬件,但是从功能上,“神经网络倾向的数字运算方式类似于视频游戏的图形渲染方式”。于是,李飞飞写道:“在2012年初的某一周,当世界各地数以百万计的图形处理器忙于渲染抖动的机枪、成群结队的僵尸和弹片飞溅的爆炸时,有两台图形处理器正在多伦多的某个地方将一种新型神经网络从理论变成现实。”杰夫里·辛顿用英伟达的GPU,在大学实验室训练他的AlexNet。
第三股力量是大数据。李飞飞实验室的ImageNet就提供了一个大规模的图片数据集。“神经网络与ImageNet对世界的呈现是天然的契合…ImageNet的数据广泛而全面,覆盖了世界上绝大多数物体。”ImageNet的数据量,让辛顿坚持的卷积神经网络算法有了用武之地。
李飞飞说:图形处理器推动之。ImageNet挑战值。AlexNet适应之。
这里面有科学家的坚持,“赌性坚强”:“我的实验室将所有赌注,都押在了长达数年、规模空前的数据追寻上,辛顿的实验室将他们的声誉都压在了卷积神经网络,这套几乎已经被专业领域抛弃的算法上。”也有市场“看不见的手”的拨动,游戏产业的繁荣让英伟达可以开发出低成本的GPU,从而让大学的科学家们可以低成本的训练自己的算法。
说到坚持,李飞飞应该是一个很坚持自己想法的人。比如在这本自传里,从头到尾,没有出现一张她的照片。出版商肯定会要求,如果不是她极其坚持,书里肯定会出现各种照片,比如她从中国到美国时的照片、她父母的照片、他们家干洗店的照片,她大学时的照片、她到谷歌时的照片、她去国会发言时的照片……
硬件、算法和数据,共同发动了新一代的人工智能革命,从深度学习到生成式人工智能——以算法而言,从辛顿的AlexNet到谷歌的Transform。
三
从李飞飞的叙述里来看,人工智能的风险至少包括三点:缺乏透明度、容易受到偏见和对抗性影响、赢家通吃。
缺乏透明度是因为算法。AlexNet和Transform这样的神经网络算法是黑盒子,科学家们对算法的内部运作机制几乎一无所知。用李飞飞的话说:“我们可以从理论的、抽象的意义上谈论神经网络,它们能做什么,它们达到目标需要什么样的数据,它们训练后的性能特征大致在哪个范围;但从一次调用到下一次调用,它们在内部到底做了什么,却是全完不透明的。”
因此,李飞飞才说,人类与人工智能的关系正在发生转变。人工智能不再像是“根据第一性原理设计产生的技术”,而更像是自己出现的一样,“需要先识别、后理解”。
容易受到偏见和对抗型攻击影响是因为数据。已有的人工智能如果表现出了偏见,那是因为算法赖以学习的数据库本身就表现出了偏见,所以才会出现人工智能把黑人图片标注为大猩猩的恶劣案例。
对抗型攻击是指人类可以有意输入迷惑机器学习算法的内容,以达到“反直觉甚至破坏性目的”。比如可以通过单个像素颜色的细微变动愚弄算法,让算法把长颈鹿辨识为书架,把人行道上的行人辨识为其他物品——这就很危险了。
赢家通吃是因为规模。李飞飞说,从ImageNet时代开始,规模的重要性就已显而易见,但是近年来“越大越好”的观点几乎有了宗教般的意义。
数据规模要大、算力要大,直接结果就是:人工智能的主导权,在从像她和辛顿这样的大学实验室的科学家,转移到市值万亿美元的科技大公司手里。
四
这本书的名字叫《我看见的世界》。李飞飞的经历让她有机会看到更多样的世界。除了她在这本书里讲述的两个故事之外,我觉得在她看过的世界里,至少还有两个方面是非常有趣也非常有价值的:
第一个方面是中国教育和美国教育的世界。
我自己觉得,如果李飞飞仍然留在中国接受高等教育,她可能仍然会是一个不错的大学教授,但是一定不会站到人工智能领域的最前沿。这跟中国和美国的教育方法和学术环境是否有关系?关系是什么?中国的教育有可能改变这一点吗?
关于教育问题如果没有得到很好的回答,意味着对于中国乃至整个世界而言,都存在着巨大的人力资源的浪费。可能有很多天才的头脑都被自己所在的环境淹没了。
第二个方面是学术世界和科技大公司的世界。
李飞飞在大学实验室工作,同时因为她的研究领域,她跟大科技公司和风险投资人都有很多的接触,她自己还曾经做过谷歌云的首席科学家。她同时看过大学和大公司的科研世界,也都有自己的观察和看法。比如她写过:“首席执行官们在世界各地的舞台上发表主题演讲,有些内容高瞻远瞩,有些拙劣不堪,还有一些是彻头彻尾的侮辱。”比如她说自己在见OpenAI的创始人时,对方直接向她表示出在学术界进行人工智能研究并不可行。
那么,对于推动科技的发展而言,这两个世界各自的优劣到底是什么?全世界最聪明的头脑必须要去为大科技公司工作吗?大科技公司天然会更愿意考虑科技的收益而忽视风险,这会带来什么?或者说这种状况有可能改变吗?
都是有趣的问题,也期待看到她的回答。
本文来自微信公众号:李翔李翔(ID:gh_b19aab226944),作者:李翔
相关推荐
李飞飞:在成为“AI教母”之前
霍夫曼对话李飞飞:如何建立以人为本的人工智能(一)
霍夫曼对话李飞飞:如何建立以人为本的人工智能(三)
李飞飞:Sora可以生成电影,但无法替代宫崎骏创造的感动
李飞飞首次创业:成立“空间智能”公司,已完成种子轮
霍夫曼对话李飞飞:如何建立以人为本的人工智能(二)
Twitter任命李飞飞为董事会成员,要强化AI技术?
吴恩达对谈李飞飞:寻找你的北极星,让它引导你
李飞飞团队放了个大招:用AI照亮医疗的“黑暗空间”
李飞飞出任推特董事会成员:将利用AI技术持续推动变革
网址: 李飞飞的历险 http://m.xishuta.com/newsview119408.html