英国和美国签署了一项具有里程碑意义的人工智能(AI)安全协议,成为首批在测试和评估AI新模型风险方面展开合作的国家。
今年4月1日,英国科学大臣米歇尔·唐兰和美国商务部长吉娜·雷蒙多在美国华盛顿特区签署了这项协议。这是世界上第一个关于人工智能安全的双边协议。
此外,在今年4月5日举行的欧盟-美国贸易与技术理事会(TTC)会议上,预计欧盟和美国也会宣布,双方将在人工智能安全、标准和研发等领域开展合作。
就在英美签署AI安全协议的同一天,全球最知名的AI公司、即开发出AI聊天机器人程序ChatGPT的OpenAI宣布,从4月1日起放开所有限制,用户无需注册即可使用ChatGPT。
OpenAI称,目前每周使用ChatGPT的用户超过1亿人,遍及全球185个国家。流量跟踪器SimilarWeb估计,今年2月份ChatGPT的访问量为16亿,虽然比2023年5月的高点(18亿)略有下降,但仍然是全球访问量最大的AI聊天机器人。
OpenAI放开所有限制的目的?根据该公司自己的说法,是让这些用户“使用ChatGPT,学习新知识,寻找创意灵感,并获得问题的答案。”
听上去,像是对所有监管机构的挑战。
AI是把双刃剑
美国投资管理公司方舟投资(ARK Invest)最近发布了一份报告,预计到2030年,人工智能将为全球GDP增加40万亿美元,它将“转型每一个行业,影响每一家企业,并成为每一个创新平台的催化剂”。
2022年11月,OpenAI推出了火遍天下的ChatGPT,从此催化了这场AI革命。ChatGPT展示了“生成式人工智能”(generative AI)在处理和生成大规模数据方面的巨大而又可怕的能力,预见到这一技术的商业潜力,全球领先的科技公司们都在激烈竞争,抢先占位,纷纷向消费者推出了自己的生成式人工智能工具。
谷歌母公司Alphabet的首席执行官桑德尔·皮查伊如此描述人工智能的影响:“它比火或电更加影响深远。”
不过,AI也是一把双刃剑,它在带来GDP增加、生产率提升的福音的同时,也带来许多负面效应和安全隐患。
那么,人工智能可能带来哪些负面影响呢?
首先,是大规模的失业。这大概也是大多数人最担忧的问题。
自AI技术诞生以来,关于AI抢走人类饭碗的讨论特别多、特别闹,但俗话说,旧的不去,新的不来,AI也能创造新的就业岗位。
今年3月底,高盛发布了一份研究报告,声称当前美国大约有三分之二的工作在一定程度上受到AI自动化的威胁,生成式AI很有可能取代四分之一的岗位。在全球范围内,生成式AI可能让3亿个全职工作岗位面临“自动化”。
但这份报告也指出,AI能够通过创造新的工作岗位,来补上它替代掉的岗位,这在很大程度上将是长期就业增长的主要来源。例如,生成式AI将在未来10年内使美国的年劳动生产力增长近1.5个百分点,并最终可能使全球GDP年增长率提高7%。
其次,生成式AI可能成为“谣言生成器”,大规模制造和传播假新闻、假信息和假照片。
再者,AI将会加剧社会不公。如果人工智能算法包含偏见,就有可能对特定群体造成不公平的影响。例如,在招聘过程中,人工智能可能会倾向于选择某种类型的员工,而排除其他类型的员工。
最后,有人甚至把AI的出现,类比为核武器的诞生,人类可能无法控制自己创造的“怪物”,最终被它毁灭。
而最后这种看似匪夷所思的可怕前景,似乎并不仅仅是科幻作家们庸人自扰、杞人忧天式的幻想。
去年5月,人工智能行业的数百名领军人物联名发表了一封公开信,描述了AI技术对人类生存构成的威胁。这封公开信把人工智能与可能灭绝人类的大流行病和核战争相提并论。公开信说:“减轻人工智能灭绝人类的风险,应该是全球性的当务之急。”
这一提及人类灭绝前景的句子,成为当时全球各大媒体相关报道的大幅标题。
在这封公开信上签名的,并不是科幻作家和自媒体网红,而是业内大佬,是包括OpenAI、谷歌DeepMind、微软、OpenAI前雇员创立的Anthropic在内的全球最著名的AI公司的数百名高管和科学家。
各方监管或紧或松
既然完全不受控制的人工智能并非人类的福音,而是人类的丧钟,那么,对它的监管就成为全世界所面对的一件刻不容缓的大事。
去年 11 月,英国主办了AI安全峰会。在那次峰会上,包括美国、英国、中国、欧盟在内的28个国家和地区共同签署了《布莱切利宣言》,呼吁和倡导以人为本,希望AI 科研机构和相关企业等以负责任的方式,设计、开发和使用AI。
那次峰会之后,各国、各地区政府和各大国际机构纷纷出台措施,加强对AI技术带来的生存风险的监管,但各方的监管力度却有所不同。
联合国大会在今年3月21日通过了首个关于人工智能的全球决议,呼吁推动开发“安全、可靠和值得信赖的”人工智能系统,以促进可持续发展。
去年8月15日,中国的《生成式人工智能服务管理暂行办法》正式施行。该法被认为是全球第一部生成式AI 立法。该《暂行办法》的监管对象是创建图像、视频、文本和其他内容的生成式AI服务,如ChatGPT,强调开发人员对他们创建的AI模型所输出的内容“负有责任”。
早在2021年4月,欧盟就发布了《人工智能法案》提案,该提案在今年3月13日被欧洲议会正式通过,即将成为法律,被舆论普遍视为迄今全球最全面的AI立法。欧盟的这部法案要求科技公司承担起确保其AI模型不违反相关规则的责任。
相比之下,美国的动作则比较迟缓。与中国和欧盟不同,美国至今还没有专门针对AI的联邦法规,但特定行业的AI应用受到该行业现行法律法规的约束,例如,美国食品和药物管理局监管AI医疗,联邦贸易委员会监管AI驱动的产品和服务,交通部监管无人驾驶汽车等。
美国更倾向于让科技行业自我监管。去年7月,微软、OpenAI、谷歌、亚马逊和Meta(以前称为脸书,即Facebook)在白宫签署了一系列自愿的承诺,包括在向公众发布人工智能系统之前对其进行内部测试和外部测试、帮助人们识别人工智能生成的内容、提高AI系统功能和限制的透明度等等。
美国战略与国际研究中心(CSIS)战略技术项目高级顾问比尔·怀曼认为:“美国不太可能在未来几年通过一项广泛的全国性的人工智能立法。成功的相关立法可能集中在争议较少和有针对性的措施上,比如对人工智能研究的资助和人工智能儿童安全。”
纽约大学媒体技术教授W·罗素·纽曼指出:“美国式的监管通常没有欧洲和亚洲那么严格。长期以来,倾向于自由放任或最低限度监管是美国制度的特点。”
英国的情况既不同于欧盟,也不同于美国。英国目前在包括AI安全研究在内的一些领域内处于领先地位,但英国保守党政府并不打算制定人工智能方面的立法,而试图利用它在欧盟之外的独特地位,设计一套相对灵活的AI监管制度,即监管行业的AI应用,而非监管AI软件。
不过,不管是美国的做法,还是英国的做法,都比欧盟更为“亲科技行业”,因为欧盟的《人工智能法》受到了科技行业的严厉批评。
虽然欧盟和美国也许诺加强在AI安全方面的合作,但英美两国4月1日达成的人工智能安全协议,是迄今为止全球在这个领域的第一个双边协议。目前看来,该协议似乎更有利于美国。
尽管美国财大气粗,尽管全球几乎所有领先的人工智能公司和研究力量都集中在美国,但即使是美国媒体也承认,在人工智能安全研究工作方面,英国远远走在了美国前面。例如,在英国主办了AI安全峰会之后,去年11月,英国成立了人工智能安全研究所,并已开始相关的工作;虽然美国也在不久后成立了自己的人工智能安全研究所,但美国的这个研究所尚未开展工作,经费也比英国所少:英国所已经获得了政府许诺的1.25亿美元研究经费,而美国所目前只获得了政府许诺的0.1亿美元研究经费,是英国所经费的8%。
英美4月1日签署的AI安全协议,将使这两家机构能够共同研究如何独立评估OpenAI、谷歌等公司建立的私营人工智能模型,并通过借调双方的研究人员来交流相关的专业知识。
人工智能“恶宾杀主”?
尽管某些自媒体关于人工智能最终可能反客为主、甚至恶宾杀主的说法有些过于耸人听闻,但人工智能究竟会不会摧毁发明、创造、设计和控制它的人类呢?
我有些好奇:人工智能工具自己怎么回答这个问题?
我先向那个红得发紫的AI聊天机器人——ChatGPT提出了这个问题。提问是英文的,回答也是英文的,我又用谷歌开发的人工智能翻译软件,把ChatGPT的英文回答翻译成了中文。
ChatGPT的回答是这样的:“不受控制的人工智能导致人类毁灭的想法是科幻小说中的常见主题,但重要的是要认识到它是推测性的。人工智能是否对人类构成威胁取决于多种因素,包括它的开发、监管和使用方式。负责任的开发、强有力的安全措施和道德考虑可以减轻与人工智能相关的潜在风险。对于政策制定者、研究人员和整个社会来说,参与讨论并建立框架至关重要,以确保人工智能的开发和部署能够造福人类,同时最大限度地减少潜在风险。”
中规中矩,滴水不漏,是不是?语气、措辞好像联合国秘书长的发言人。
微软也有自己的AI聊天机器人——Copilot,而且能够读懂中文,并用中文回答。我的中文问题是:“人工智能会不会摧毁人类?”
Copilot的中文回答是:“关于人工智能是否会毁灭人类,这是一个复杂的话题,涉及伦理、技术发展和未来预测。目前,人工智能是由人类设计和控制的,它的主要目的是帮助人类解决问题和提高效率。然而,人工智能的安全性和对社会的影响是需要严格监管的。科学家和工程师正在积极研究如何确保人工智能的发展能够造福人类,防止潜在的负面影响。因此,人工智能毁灭人类的可能性非常低,而且这样的情况可以通过负责任的管理和规范来避免。”
听上去,口吻更像是微软公司出来“灭火”的公关部门负责人,面面俱到,挑不出什么大的毛病。
最后,我必须声明一下,此文除了上述两款AI工具的回答之外,没有使用任何人工智能应用程序。
本文来自微信公众号:魏城看天下 (ID:gh_172f9518d915),作者:魏城(曾经在中西著名媒体从业30多年,做过记者、编辑、翻译、电台主持人、杂志执行总编辑等工作,出版过三本书,工作过的机构包括《中国青年报》《星岛日报》加拿大版、英国广播公司、美国《财富》杂志中文版、英国《金融时报》等)
相关推荐
如何应对人工智能“失控”危险?
“人工智能第三定律”的漏洞:人类能造出失控的机器人
危险!立即暂停!马斯克等上千名大佬紧急发声!
对话凯文·凯利:现在监管AI为时过早,应该允许“失控”
路上铺个“补丁”,就能让自动驾驶失控?
透视全球AI治理十大事件:站在创新十字路口的AI会失控吗?
可信AI:问题和应对
原来特斯拉“失控加速”早在美国被调查了
AI失控,谁是受害者?
36氪领读 | 图灵奖得主:人工智能是如何走出死胡同的?
网址: 如何应对人工智能“失控”危险? http://m.xishuta.com/newsview114505.html