首页 > 科技快讯 > OpenAI CEO:大语言模型规模已接近极限,并非越大越好

OpenAI CEO:大语言模型规模已接近极限,并非越大越好

IT之家 4 月 16 日消息,OpenAI 的联合创始人兼 CEO 萨姆・奥尔特曼(Sam Altman)在麻省理工学院“想象力行动”活动上接受了采访,谈到了大语言模型(LLM)的发展趋势和安全问题。

奥尔特曼认为,我们正在接近 LLM 规模的极限,规模越大并不一定意味着模型越好,而可能只是为了追求一个数字而已。LLM 的规模不再是衡量模型质量的重要指标,未来将有更多的方式来提升模型的能力和效用。他将 LLM 的规模与过去芯片速度的竞赛进行了类比,指出今天我们更关注芯片能否完成任务,而不是它们有多快。他表示,OpenAI 的目标是为世界提供最有能力、最有用、最安全的模型,而不是为了参数数量而自我陶醉。

IT之家注意到,奥尔特曼还回应了一封要求 OpenAI 暂停开发更强大 AI 六个月的公开信,他表示他同意在能力越来越强大的情况下,安全标准也要提高,但他认为信件缺乏技术细节和准确性。他说,OpenAI 在发布 GPT-4 之前已经花了六个月以上的时间来研究安全问题,并邀请外部审计和“红队”来测试模型。“我也同意,随着能力变得越来越强,安全标准必须提高。但我认为这封信缺少了关于我们需要暂停的大部分技术上的细微差别 —— 这封信的早期版本声称我们正在训练 GPT-5。我们没有,而且在一段时间内也不会,所以从这个意义上说,这有点愚蠢。但我们在 GPT-4 的基础上还在做其他事情,我认为这些事情有各种安全问题需要解决,但信中完全没有提到。因此,我认为谨慎行事,并对安全问题越来越严格,这一点非常重要。我不认为(信中的)建议是解决这个问题的最终方法,”他说。

奥尔特说,OpenAI 已经在这个领域工作了七年,付出了很多努力,而大多数人都不愿意这样做。他说,他愿意公开讨论安全问题和模型的局限性,因为这是正确的事情。他承认有时候他和其他公司代表会说一些“蠢话”,结果发现是错误的,但他愿意冒这个风险,因为这项技术需要对话。

相关推荐

OpenAI CEO:大语言模型规模已接近极限,并非越大越好
更强的GPT-4,更封闭的OpenAI
大模型赛道:风浪越大“鱼”越贵
微软发布史上最大AI模型:170亿参数横扫各种语言建模基准,将用于Office套件
中国的大语言模型终于到来,只有百度抓住了这波AI新浪潮
【PW热点】百度正式推出大语言模型“文心一言”
将语言直接翻译成代码,OpenAI内测AI编码器Codex
全球AI大模型一览:中美之外还有谁?
OpenAI前核心员工集体创业,融资1亿美元为“初心”
语言与大模型:通向AGI之路

网址: OpenAI CEO:大语言模型规模已接近极限,并非越大越好 http://m.xishuta.com/newsview71506.html

所属分类:行业热点