神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:最近十年,随着算力的改进和数据的丰富,AI取得了一些实质性的进展,再加上AlphaGo战胜围棋世界冠军等吸引眼球的事件的渲染。各路对AI开始了各种夸张的预测。这些预测往往不是好上天,就是坏到底,令人无所适从。究竟什么才是预测AI的正确姿势呢?Adrien Book提出了预测AI的十项原则。原文发表在Medium上,标题是:10 Rules for Artificial Intelligence Predictions。
划重点:
在短期内我们会高估人工智能所能达到的效果
从长期看,我们又会低估人工智能所能发挥的作用
摩尔定律未必适用人工智能
讨论AI的时候正确地用词很重要
人工智能远没有人类的智能强大
人工智能不是凭空出现的
不要像好莱坞那样
我们不想要像人一样的AI
大多数的CEO其实跟你一样困惑
人工智能没法解决所有问题
在对AI的未来做出预测时,必须遵守一些规则,以免被认为是“胡说八道”。不管你想用什么样的方式、形态或者形式预测AI未来,都需要考虑以下几条原则。
阿玛拉定律的第一部分(人们总是高估一项科技所带来的短期效益)跟这个数字时代最相关,因为我们总是会被那些浮夸的头条新闻和点击诱饵吸引,尤其是AI所引发的自动化方面的新闻。
的确,一直以来都有大量的研究项目对自动化导致失业问题做出了各种各样的预测,但这些预测的差异有上千万之巨,甚至在类似的时间框架下对比也是如此。这种预测是不负责任的,因为未来的立法可能会把其中的一个预测用作新法律的基础,所以预测必须采取准确的计算方法。实际上,对于大多数工人来说现在还用不着恐慌:自动化会出现三波不同的浪潮,而我们现在还刚刚站在第一波上。由于有了通过机器学习训练而来的“基础”AI,所以数据分析和理论上简单的数字任务也许已经过时了,但是在未来几年内这种情况不太可能有进一步的发展。
在写AI方面的文章时,不要被夸大其词冲昏头脑,以免被那些更懂行的人(显然也是受人尊重和钦佩,你应该努力成为的人)归类成有一个狂热分子。
这有把我们引向了硬币的另一面。科幻爱好在对未来30到50年进行分析时往往不能完全接受未来的不确定性。这一般有三方面的原因:一是有太多的不可预测性,二是缺乏足够的想象力,以及对预测缺乏一种“我死之后”(après moi, le déluge)的态度。
1950年代那时候的人以为,一切可以发明的东西都已经被发明出来了,对于AI我们仍然会继续看到这种态度。是,机器学习好像只能走得那么远了:事实上,人工智能的突破已经很少,而且似乎需要的资金、数据和计算能力也越来越多。人工智能的最新进展主要是工程上而不是科学上的,甚至不过是些修修补补罢了。但是,通过重建超越了“反向传播”和“深度学习”的模型来让AI焕发新生并不是人力所不能为。
技术发挥作用的方式一贯都是这样的:逐渐地,然后突然间。没有人知道未来会变成什么样,所以我说要玩就玩大的,要么就回家。这是业余的技术预测者有可能预测对的唯一方法。不管怎样,到2040年的时候,大多数对2060年的疯狂预测似乎都会变得古怪而过时的。
虽然我们可能会喜欢上面提出的观点,但通往未来的道路有可能是坎坷不平的,而且绝不是可以预测的。
我们不能指望依靠摩尔定律之类的东西去看透水晶球里面的东西。就像前面所说那样,大多数(如果不是全部的话)对AI的现代应用都是机器学习的产物,这跟大多数科幻电影所设想的AI都相去甚远。实际上,机器学习是件相当乏味的事情。这项技术自1990年代以来就一直存在,而且它的理论前提自1970年代就开始了。那现在的AI新在哪里呢?新在大数据、存储能力以及计算能力的进步和结合。所以,任何爆发式和指数式的技术改进的想法都是没有根据的。
在出现一些令人兴奋的新技术之前,我们可能会停滞数年。所以,请不要把所有的预测鸡蛋都放进同一个AI篮子里面。
一般来说,克拉克第三定律似乎非常适用我们对AI的讨论方式:任何非常先进的技术,初看都与魔法无异。但这不是事实,跟事实差得远了。这种措辞上的失败在将来有可能会成为一个问题。
就像前几篇文章提到过那样,人工智能的用词一直在弥赛亚式的梦想与对世界末日的幻象之间纠缠不清,对“超然”,“使命”,“传道者”以及“先知”之类的词汇都进行了重新诠释。马斯克本人2014年的时候甚至说过:“人类发展一般人工智能跟召唤恶魔等同”。这些夸张的词汇跟那些不知道该说什么好的人没什么区别,就像爱因斯坦和霍金曾经做过一样,只能呢个在熟悉的形而上的词汇里面寻求庇护。
尽管伪装成理论学说的倡导项目可能仍然有用,但我担心我们可能会因此对AI产生错误的想法,因为我们使用的语言已经过时且不适应现实。一旦涉及到魔术之后,任何渴望或害怕的结果都可以轻易推导出来。换句话说,也许我们需要少研究一点人工智能的“智能”部分,多思考一下“人工”那部分。
在预测AI的时候,请使用正确的词汇,以免那群疯子把你推举为新的邪教领袖。
而且不会持续很长的时间。
比方说,围绕着广泛主题进行的开放式对话还没有任何进展。据称是人工智能能力市场领导者的Google(有着更多的研究人员,更多的数据以及更强大的计算能力),只能产生一种能够按照非常特定的脚本预约餐厅或理发师的人工智能。在经常需要仍共输入参与的自动驾驶汽车方面,最近也只能得出类似的结论。
一个人可以理解A对B对C的看法是什么。就处理规模而言,这至少还需要数十年的时间机器才能实现。但从人类的角度来看,这不过是闲聊罢了。正是因为自身存在缺陷,人类反而变得更好,因为推断、说谎和掩饰自己的真实意图是没法通过数据学到的。
对AI做出短期和中期预测时,不要把人工智能跟人类智能拿来类比。这看起来很愚蠢。
作为AI的“造物主”,控制机器人的影响力(不管到头来它的影响力是如何的平庸)是我们的责任,但无论如何,机器人的影响可能是事实。这主要可以通过识别出对适当、道德、负责任的框架的需求以及哲学边界来实现。尤其是,需要政府的介入,因为企业不太可能为了社会利益而放弃利润。
那些预测AI未来状态的作者必须停止用那种这是不可避免的方式来讨论潜在的后果。这会影响那些对自己的数据的使用方式,对机器人方面的规则,以及任何足够先进的AI的道德规范可以也应该有发言权的人的判断力。
要大声说出来。要呼吁进行适当的管制。去投票。所有这些都会以这样或者那样的方式对AI产生影响。不要让硅谷说他们的发明是“价值中立”的。他们开发了它,可以(也应该)在需要的时候对其进行修复。
这个世界不太可能在短期内看到自己的HAL / SHODAN / Ultron / SkyNet / GLaDOS带来末日启示录。但是,电影给人的感觉似乎是这件事情在我们有生之年就会出现。
《机械姬》(Ex Machina) ,《我,机器人》(I, Robot),《攻壳机动队》(Ghost in the Shell),《超能查派》(Chappie) ,《她》(Her),《机器人瓦力》(Wall-E),《人工智能》(AI),《2001太空漫游》(Space Odyssey),《银翼杀手》(Blade Runner)……这些作品都表明来好莱坞把智力和智慧给混淆了。AI没法无视对它的编程。这根本不可能。“机器有灵魂”不是说没可能,但只能以意想不到的快捷方式出现,比方说AI可能会利用Atari游戏里面的bug来作弊。这是意外,但基本都在机器的编程之内,这一点也突出表明了需要对算法有更好的理解。
好莱坞还忽视了软件和硬件之间的区别。是,我们有了可以在国际象棋这个项目上击败人类的人工智能,但是人类赛后可以回家喝茶,自己做点宜家家具,可以去踢足球。那机器人能走吗?你知道那些笨拙的机器人要花多少钱吗?好几百万!
为了跟好莱坞版AI引发的无限恐惧做斗争,我们需要了解什么是人工智能,什么不是人工智能。人工智能成为怪物的可能性非常低。好莱坞已经是怪物了。不要被它的骗局蒙蔽了。
我们不仅没法做出自己的天网(SkyNet),而且可能永远也不想做这样的东西。
尽管通过图灵测试对于机器(以及做机器的工程师)来说无疑构成了一个有趣的挑战,但这其实并不是AI的目标。因为做AI的是我们。人工智能研究想要开发出可以感知环境并成功实现特定目标的程序,而且在很多情况下,这个目标都不会是冒充成人类。
实际上,冒充人类只会带来一个邪恶的结果,这就是为什么我们应该对任何声称能够做到这一点的公司保持警惕的原因所在。做出能够帮助人类而不是模仿人类的东西要有利可图得多。
如果制造机器的公司没法找到合乎道德的方式来提供可观的投资回报的话,那制造出可以模仿人类的机器又有什么用呢?
下面几段引文可以完美地说明很多CEO在行业发生巨变时所遭受的损失有多大:
当亚历山大·格雷厄姆·贝尔(Alexander Graham Bell)给西联汇款行长卡尔·奥顿(Carl Orton)开价10万美元提供电话使用权时,奥顿答道:
“我们公司可以拿这个电子玩具来干什么呢?”
几年后,(1943年)IBM总裁托马斯·沃森(Thomas Watson)开玩笑说:
“我觉得全世界大概只需要五台计算够了。”
后来尽管市场的确扩大了,数字设备公司(DEC,Digital Equipment Corporation)的创始人Ken Olsen也紧随沃森的后尘,他在1977年的时候说:
“任何人都没理由想在家里有台电脑。”
以及这条我的最爱:2008年在被问到流媒体的问题时,百视达(Blockbuster) CEO Jim Keyes大声地宣布:
“不管是RedBox还是Netflix,在竞争方面都没有入我们的法眼。”
人工智能会改变的不是一个行业,而是会改变所有行业,有时候是大规模的改变,有时只会改变一点点。如果你跟我一样也是战略顾问的话,请务必要非常注意自己的措辞。如果你的对话者问你什么是反向传播算法的话,最好从头开始开始你们的对话。要非常慢。
尽管人工智能会改变所有的行业,但这绝不意味着它会改变一切并拯救世界。如前面所述,我们对AI的能力过于高估了,并往往会赋予它之前没有的品质。
全球饥饿、战争、疾病、全球变暖······所有这些仍然是我们人类的责任,任何人要是推卸责任都应该感到羞耻。在让机器人为我们解决所有问题之前,我们需要先做出自己的努力:为我们过去所有的这些低效率开脱实在是太容易了。
归根结底,人工智能不过是社会,社会的胜利以及不平等的一面黑镜而已。也许,只是也许,人工智能研究为我们带来的最好的收获不是对技术有了更好的了解,而是对我们自己有了更好的了解。
译者:boxi。
相关推荐
预测人工智能技术,我们需要遵循 10 条原则
李彦宏委员:明确人工智能伦理原则,进行评估指导
我们需要什么样的数据跨境规则?
原银监会主席:蚂蚁集团应遵循金融业基本规律
《预测未来之趋势分析(二)》
卫龙:一根辣条的逆袭与隐忧
创业公司管理混乱?试试《原则》作者的“五步流程”
政协委员:中国需要建立针对个人信息保护的组织
你把辣条吃上市了
“辣条一哥”卫龙的盔甲与软肋
网址: 预测人工智能技术,我们需要遵循 10 条原则 http://m.xishuta.com/newsview38096.html