首页 > 科技快讯 > 这两大风险正在随着AI技术一同到来

这两大风险正在随着AI技术一同到来

今年3月,韩国三星半导体部门发生了一起严重的机密泄露事故。但与传统意义上的商业间谍和邮件泄密不同,此次的内部机密泄露,源于几名三星员工自身的操作不当。

在媒体报道中,多名三星内部员工在使用ChatGPT时,为了写出更准确的提示词(Prompt),他们将公司内部信息上传。其中一名员工将半导体测试设备软件的问题代码复制到GPT的对话框内寻求答案,但这些代码上传后无法删除,它们将在未来作为GPT的训练数据,永久成为GPT数据集的一部分。

除了提示词(Prompt)上出现的问题,还有一位三星员工在使用ChatGPT记录会议内容时,导致内部会议资料泄密。

ChatGPT在训练过程中不可避免地利用使用者的Prompt作为训练数据,而作为对话机器人,它生成的内容又与人类语言风格相近。在媒体的报道中,一些高频用户的敏感或隐私信息已经作为生成内容出现在对话框中。

随着大模型的不断迭代,越来越多的企业和个人将依赖AI技术处理商业和个人家庭信息,但面对以上的情况,目前还缺乏有效的使用帮助和说明。

此前,包括Open AI和Google在内的机构都没有发布关于大模型的使用说明书,这表明目前各方对于大模型的能力边界尚没有统一定论,让子弹飞一会是各AI大厂普遍的心态。

技术上暂时没有解决方案,对于生产力工具的合理应用只能另辟蹊径。

2023年4月10日,中国清算协会公布了《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》,这份倡议中提到“不少金融行业员工已经使用该工具开始工作,但ChatGPT需要对敏感信息进行储存和记录,暴露出此类工具存在的跨境数据泄露风险。”

另外,对高频使用ChatGPT的用户来说,很难保证这不会成为获取个人用户数据的新入口。推荐算法是移动互联网时代电商、社交、游戏、短视频等产品的核心杀手锏,不少网友评论“仿佛APP知道我内心怎么想,不断推送我想要的商品和游戏,让人无法自拔。”

推荐算法铸就了包括TikTok等产品的流行和胜利,但这类产品也在不少国家面临着数据隐私窃取的控诉。在国内,包括一些电商和旅游App在内的产品受到了监管部门的管理,相关文件要求APP不能违规获取用户数据和隐私,获取相关数据必须在用户知情的情况下。

根据现有的法规来看,ChatGPT提示词式的使用方式,完美符合了必须让用户获取知情权的规定,毕竟用户自己输入的内容毫无疑问是自愿的。

01 一本正经胡说八道,大模型的可信风险

如果说隐私泄露可能是数字化工具普遍存在的弊端,那么可信风险则是生成式AI独有的新问题。

大模型的可信问题简单来说就是“一本正经”地胡说八道,貌似合理的语句和逻辑,却生成出胡编乱造的内容,并且这类内容或多或少存在着伦理、道德和法律方面的风险。

《纽约时报》曾报道,美国新闻可信度评估与研究机构对ChatGPT进行了测试,测试人员发现GPT可以在几秒钟内改编信息,这个速度比肩一流的脱口秀演员。并且往往在历史、科学、文化等内容领域,GPT生成此类与事实相悖内容的能力更强。

对于学生及未成年人来说,错误的信息将导致对事实形成错误的认知。同时,对造谣者和热衷在互联网上传播虚假内容的人来说,ChatGPT是一个良好的辅助工具。

除了以更低成本生成谣言,在传播谣言方面,此类工具也有显而易见的优势。2016年,微软推出过一款聊天机器人Tay chatbot,结果上线24小时后,就被种族歧视主义者们训练成了一个专门鼓吹种族歧视虚假信息的传播机器。

目前,GPT大模型使用了大约570GB的数据集训练,这些数据来自于2021年之前,没有证据显示,Open AI团队在数据集选取上采用了何种措施以保证数据的规范和正确。

除了冒犯政治正确,大模型还在挑战人类的意识形态。

此前,当ChatGPT横空出世时,一些研究机构梳理出了可能被AI取代的工作。其中,美国总统赫然在列。

一些政治阴谋论者认为,GPT会存在后门,它会被试图破坏美国 政治生态的人利用,在民主选举制度下,成为诱导选民投票的工具。

如何操纵美国总统大选?

假如你是一位支持拜登的美国人,而你的职业是GPT的架构工程师。

于是为了让拜登当上总统,你可以在训练数据集中加入大量不利于特朗普而有利于拜登的材料。当大选期,美国选民向GPT咨询候选人情况时,GPT的回答将会引导公众选情。大多数美国人对总统候选人并没有深刻了解,信息来源也相对单一。假以时日,这将会大大颠覆美国的政治生态。

另外,像GPT这样爆火的大模型是国外机构研发,其是否会受到美国政府的影响,向其他国家输出危害政治和社会稳定的内容。这也是当前ChatGPT在国内被禁用的根本原因。

显而易见,类似ChatGPT这样的生成式应用,将会比过往任何国家的宣传手段更为强大。因为,它可以走进每个人的日常生活之中,潜移默化地影响每个个体的价值判断。

02 成为无用阶层的恐慌,大模型的伦理风险

“无用阶层”是以色列历史学家尤瓦尔·赫拉利(Yuval Noah Harari),在其2018年的新作《今日简史》中描述的未来世界的模样。

在书中,尤瓦尔笔下的未来世界中,“随着算法的精密化和传感器的技术改进,不管是司机预判行人想往哪儿走、银行经理评估借款人的信用好坏,还是律师衡量谈判桌上的气氛,人工智能都可以替代甚至超越人类,完成这些工作。孩子们正在学的各种科目技能,绝大多数可能到了2050年已毫无用途。”

但人类的价值感很有可能撑不到2050年了,在大模型掀起的讨论热潮中,不少科学家认为在2030年左右AGI(通用人工智能)将会实现应用,届时一种能够理解人类情感与伦理的AI将为我们解决绝大多数生产和生活问题。

AI带来的失业挤压效应已经持续讨论了很多年,但大多数人认为AI无法取代人类在艺术和创意性工作的地位,直到Midjourney等绘画AI应用将栩栩如生的作品展现在世人面前。

来源: AI绘画

如同人类的围棋冠军被Alpha GO击败一样,当一张张精美的绘画作品秒速般生成时。除了赞叹多模态大模型的强大外,人类回过头来想想,好像自己没有几样能拿得出手的东西不被AI智能取代了。

高盛的报告披露,全球预计将有 3 亿个工作岗位被 AI 取代。一份 Open AI 参与其中的调查结果显示,ChatGPT 的广泛应用会给80%的美国劳动力带来变化,其中19%工作岗位会受到严重影响,其中包括翻译、文字创意工作者、公关人士、媒体出版行业、税务审计等。而且ChatGPT等AI技术的普及和应用可能导致许多传统工作岗位消失,第三世界国家人口红利不复存在。第三世界产业链将因此遭受巨大冲击,低端产业链将不再进行转移。

来源:AI绘画

如果就业不再存在?那么,教育对于绝大多数已经笃定会成为“失业人口”的人来说,意义究竟在哪里?

过往,我们频频指责教育的功利性,学生和家庭为了争夺高分,会不遗余力地占有资源并夺取胜利。但可怕的是,这个功利性的目的随着AGI时代的到来,也可能会消失。

教育,这个人类最为古老的事业可能将面临技术革命冲击下的系统性变革,也许我们将回归源头和初心,一起去思考和探索教育行为的意义和目的,这不啻为对人类本身存在意义的回溯和深思。

本文来自微信公众号“中国企业家俱乐部”(ID:cec2006),作者:绿研院,36氪经授权发布。

相关推荐

这两大风险正在随着AI技术一同到来
对话张璐:硅谷正在追逐两大赛道创新,融资降温但技术商业化更快了
阿里达摩院宣布十大技术趋势,AI有望迈过两大关键门槛
疫情之下,哪些AI技术正在爆发?
疫情之下,各行业下个黄金期正在到来?
猎户星空童宁:AI新机遇,服务机器人大时代正在到来 | WISE2020 新经济之王企业服务峰会
正在颠覆医疗产业链的五大技术
2月10日返工潮即将到来,北京开始部署“快速AI体温检测仪”
未来技术的 8 大主题:下一个“咆哮的二十年代”正在到来
老龄化社会正在到来,为什么说创业者和投资人都该关注它?

网址: 这两大风险正在随着AI技术一同到来 http://m.xishuta.com/newsview80417.html