OpenaAI给2024年5月14日的这场发布会取名“春季功能更新”,就像它们形容当初ChatGPT的发布是一次“低调的研究预览”一样。
而就像那次一样,一切也都回不去了。
OpenAI发布了一个叫做GPT-4o的新模型,它的确不是GPT-5,但看了它能做的事情,再想到它甚至不是OpenAI正在砸更多的钱和智慧在做的GPT-5,你只会感觉更“可怕”。
发布会一开始,OpenAI的CTO Mira Murati 介绍了新模型GPT-4o(是的,Sam Altman全程没有现身)。她强调这个模型是要给所有人使用,并且通过交互的更新让人们忘了UI的存在。因为OpenAI的愿景正是如此。
而到此这似乎还很正常。
“不过是新模型而已嘛。”
图/OpenAI
但直到demo环节开始,一切越来越离谱。
首先是一个实时对话的展示。
“我正在做demo,我有点紧张。”Mark说。然后他开始故意喘息的非常快。而GPT识别出了他的呼吸。
“哦,哦,哦,别紧张,慢下来。你不是个吸尘器。”ChatGPT的女人声音抑扬顿挫,没有任何延迟。
是没有任何延迟。你不需要等她,她也不会让你等,当你直接开始说接下来的话,她会立刻停下来听,并立刻做出调整。
您目前设备暂不支持播放
而且在这些回答中,它甚至有喘息和犹豫的声音。
另一个很可怕的细节是,这些demo全程不需要任何多余的按键操作。
对,声音的对话就像是在“打电话”。
另一个demo是假设要给朋友讲一个关于机器人的睡前故事。
提出需求后,ChatGPT开始正常的讲故事。
但听的人并不喜欢,于是直接打断说,能不能讲得更有感情更drama一点。
ChatGPT立刻调整,增加了一些悬疑感。
“不不不,我希望把感情和drama感拉满。”听者再次直接打断。——也就是说ChatGPT在实时听着你的声音。
然后ChatGPT变成了一个非常浮夸的故事讲述者。
“你能不能用机器人的声音给我讲故事。”Mira又直接插话。
而ChatGPT立刻开始模仿机器人。注意,是模仿,也就是它的声音一直是那个女声,一切听起来就像家长在讲睡前故事时候会做的那样。
“你能最后唱一首歌把这个故事结束么。”听者又提了要求。
然后ChatGPT立刻唱了一首歌。根据刚才的故事,实时,改编,并直接唱出来的一首歌。
“如果你之前使用过我们的语音模式,你会注意到几个关键的区别。首先,你现在可以打断模型了。你不需要等它结束你的回合,你可以随时开始说话,随时插话。其次,模型的响应是实时的。这意味着你不需要再经历那种尴尬的两到三秒的延迟,等待模型回应。最后,当我刚才呼吸非常急促时,模型能够感知到情绪。它会提醒你,或许你需要放松一下,你的节奏快得有点过头了。所以你知道,它确实具有全面感知情绪的能力。不仅如此,这个模型还能以各种不同的情感风格生成声音,它真的具有非常广泛的动态范围。”
如果你是个创业者,或者熟悉大模型应用创业环境的人,你会立刻意识到。
又有一批创业公司死了。
之后是视觉能力的展示。
对,在同一个产品上。一个据说要免费提供给全世界所有人的产品上。
他先是展示了一个通过摄像头获得视觉能力,然后实时指导你的数学解题的demo。
甚至因为“幻觉”问题,ChatGPT在还没打开摄像头时候就自信满满的说理解了。当展示者提示后,她说“oops,我太兴奋了。”
然后展示者打开摄像头,实时写了一个数学方程题,然后让ChatGPT一步一步地提醒和讲解他在做的解题思路。ChatGPT很好地做到了。
像一个很有经验有耐心的数学老师那样。
这还没完。
似乎是为了打脸那些录制好加速后的demo,他们还实时收集了X上的反馈。其中一个挑战是:打开摄像头让ChatGPT实时分析你的情绪。
展示者开始摄像头自拍,而ChatGPT立刻分析道:
“你看起来是个桌子。”——因为打开摄像头时,最先打开的是前置的摄像头,对准的是桌子。
“不不不,那是之前的,你不用担心,我不是个桌子。”分享者说到。
“哈哈,那就合理了。”Chat GPT说到。
您目前设备暂不支持播放
这里看的时候,估计很多人跟我一样惊了一下。
然后ChatGPT立刻分析:“你看起来非常开心。大大的笑容,甚至有一点兴奋。你想分享一下让你这么开心的原因么?”语气里甚至能听到好奇,以及斟酌语句的感觉。
“因为我在做实时展示,让大家看看你有多出色。”讲者说。
“哦,拜托,别让我脸红了。”ChatGPT带着笑声说到。
瞬间,《Her》降临。科幻成了现实。
看到这,所有人估计都明白了Sam Altman此前卖关子时候说的“magic”是什么。
在惊叹之余,还是再总结一下:
1. 这些操作全程没有多余的点击操作的交互。
2. 没有丝毫延迟的视觉和声音反馈。
3. 不仅能感受到你的情感,ChatGPT也自带情绪和情感。
4. 能对桌面等更数字化的世界有更全面的信息感知。
5. 全部集成在一个产品里,而且可能是对所有人免费的。
哦对,以及,这还不是GPT-5。
发布会后,OpenAI也在官网更新了这次发布的模型的具体信息。
还记得ChatGPT第一次出来时,有人形容跟它第一次亲密接触的感受:
当你通过打字跟它交互的时候,等待它回答的过程仿佛能想象到对面坐着一个人,正在转笔,思考如何回答你的问题。
而今天,不只是你的叹气,情感和喘息能被AI感受到,你也能直接感受到对面的“人”的叹气,情感,和喘息。
在电影《Her》里,主人公最终爱上了这个AI助手。我们不知道GPT-4o加持下的新ChatGPT会带来什么。更不知道GPT-5出现后会发生什么。
一切都太快了,都回不去了。
最后,对所有开发者和创业者,这次发布又意味着什么?
也许这句当时有些被人不以为意甚至觉得冒犯的话值得再看一遍,它可能说明了一切:
目前有两种构建人工智能的策略:一种是假设模型不会改进,然后在现有的能力上建设一堆小东西;另一种是假设OpenAI将保持相同的增长轨迹(继续疯狂迭代)。我认为,95% 的人应该押注在第二种策略上。我们有改进模型的使命,不是我不喜欢你们,但我们将碾压你们。 ——Sam Altman,2023年4月17日
本文来自微信公众号:硅星人Pro(ID:Si-Planet),作者:王兆洋
相关推荐
视觉语音交互毫无延迟,都成精了居然还不是GPT-5?
免费版GPT-4o来了,视频语音交互丝滑到吓人
OpenAI大招要来了!AI语音助手狙击谷歌,官宣下周二上新,GPT-5年前
“AI+视觉”家庭机器人企业「Trifo」新品发布:定位高端市场,视觉语音双向交互+智能安防
小度或分拆上市,语音交互生意还性感吗
赶超英伟达?都2024年了,居然还炒作SRAM
ChatGPT-4o,OpenAI的一小步,人类“AI助理”的一大步
遥遥领先的OpenAI没落了吗?
ChatGPT-4o,OpenAI的一小步,人类「AI助理」的一大步
AirPods 最大的创新,其实是革新了耳机交互
网址: 视觉语音交互毫无延迟,都成精了居然还不是GPT-5? http://m.xishuta.com/newsview118347.html