从去年开始尝试大模型应用,过程混合了兴奋和沮丧。兴奋于可能的效果和想象空间;沮丧于结果的不稳定,大模型时不时出现的幻觉。
最近的体会,问题不仅仅是大模型的底层能力还不够,也因为我对传统软件上的认知习惯,与AIGC产品模式存在冲突。
加法和减法,构建与认知
传统软件是基于规则和逻辑的,If ~ Else, 有异常必然要处理。本质上来说,传统软件是一个现实世界到数字世界的转换器。人类把现实世界的规则转移到数字环境中,清晰明确矫正后,依赖在数字世界中的新规则继续生存。规则和逻辑不断叠加,逐步构建出一个庞大的决策树。
我在刚入行计算机软件的时候,就被前辈教育到,ERP软件对企业最大的帮助,其实是强迫企业梳理出明确的业务规则。
传统软件的终点,是《模拟人生》或者元宇宙。
《模拟人生》很像真实世界,但并不是。《模拟人生》里面的生活规则是显性的,正负反馈都很及时;而现实世界是灰色的,有那么多潜规则,有那么多感性的问题,没法简单被0和1区分,没法都是选择题。
人类都讨厌客服电话中按1,2,3,4的选择,我要选择0,我想跟人说清楚我的需求。
不仅仅是潜规则难以理清,现实世界中的长尾需求太多太多,以至于转换成本过高,得不偿失。就像自动驾驶要解决的corn case没完没了。
最快实现L5的路径,是直接禁止非自动驾驶的汽车上路。
AIGC应用是另外一种模式——依赖大算力和海量数据训练,AI在认识人类和现实世界。
我在写prompt的时候,苦于没有标准的形式,能像命令行那样给到准确地输出。其实我在想用机器的语言与AI沟通,而AI则是在用人类的语言和我沟通。
而AI已经内嵌了丰富的知识和内容生成能力,我们需要做的是精确指挥,即通过精心设计的prompt来“唤醒”AI,提炼出我们需要的答案。
相比传统软件,与ChatGPT对话像是做减法。我给它的设定,其实是在限定它的工作范围,反而能得到更好的结果。
前提是我得知道自己要什么,就像罗丹所说:雕像本来就在石头里面,我只是把不必要的部分去掉。
从认识规则到认识需求
人类对知识以及知识的认知,可划分为四种类型:
我知道 我知道(它);
我知道 我不知道(它);
我不知道 我知道(什么);
我不知道 我不知道(什么);
第一个“知道”是一种认知和意识,awareness ; 第二个“知道”是知识和原料,knowledge。
只要有认知,无论是否具备相应的知识,我可以设计一个执行策略去完成任务。如果我已经具备了这个知识,我就可以自己直接去做;否则我要去学习,或者请人帮助我完成。
具备认知,就有了一定的确定性。传统软件的构建必须建立在awareness的前提下。而且对于确定性的问题,如果已经能够建立起明确的规则,那么用传统软件其实是更好的方式。
但是如果我连认知都没有,我根本不知道自己是否具备相应的知识,我都不知道如何提问,那就无法开展了。
比如说我写了一个PPT,需要将字体调整为宋体,字号为小四,字体颜色为黑,等等,我可以通过快捷键搞定,甚至通过母版/版式批量化完成所有页面。但假如说我希望PPT风格是科技感的,或者说是更模糊的“好看”/“高级”,那PPT本身就很难帮助我实现。
如果有一个AI.PPT的AI应用,比我有更丰富的PPT知识,还能引导我提问,帮助我发现我其实知道的知识,帮助我学习我不知道的知识,那么AIGC的产品就能进入比传统更广阔的应用场景。
我需要做的,则是想清楚对自己来说,到底什么是“科技感”,什么是“好看”。我的需求到底是什么,我的满意度标准是什么。
传统软件与AIGC产品的区别,在于是认识规则,还是认识需求。
像用人一样用AI
当前大模型最常见的应用是构建智能体,基于Agents 搭建工作流。我在字节COZE上做了尝试,效果还不行,但是能看得出来整个框架的思路。
大模型作为能力底座,Bot作为执行体,辅助以可联网的Plugin,本地的Knowledge base和 database,加上控制条件,俨然就是一条完整的工作链路。
无论是简单Bot, 还是带workflow的复杂智能体,写角色定义和技能说明都是关键。prompt的细微差别也会导致明显的输出效果差异。
从程序员转型到管理岗位时,我也曾困惑过是否能放得下编程。后来发现组织团队去实现一个项目,比自己单打独斗要好得多。当时开玩笑说,其实一样是编程的模式,只不过把team member当作程序来用。不同部门就是不同的类,每个人都是一个对象,有的负责底层,有的负责界面,客服就是异常处理。
当年我把人(程序员)当作模块,今天应该是把Bot(智能体)当作人。
大模型就是学校,提供高素质的“人才”,不同模型训练出来的人才能力会有差异。
写角色定义就是写岗位JD,你希望要一个什么样的人;能不能把岗位要求说清楚。
写提示就是写工作要求,你到底要它完成什么任务,哪些应该考虑,哪些不需要考虑,怎样才会让自己满意。
云平台/闭源大模型就是外包公司,把事情说清楚了直接让他们去做。
本地部署开源大模型就是组建自己的团队。高材生进了公司,还得学习内部数据和知识。
如果你清楚自己的业务,知道要招什么样的人,那未来你就能用好AIGC平台和模型。
否则呢,你会需要AIGC产品经理的帮助。
传统软件时代的产品经理,核心是发现业务逻辑规则将其数据化。SAAS软件的底层都是增删改查,区别在于是对象到底有多少属性。只要完成数据层面的抽象,其实可以不关心具体业务表现在怎么样。
AIGC时代的产品经理,核心是发现用户的底层需求和满意标准,找到合适的模型以及模型参数与之匹配。Ta 更像是一个精通业务的HR,帮老板搭建合适的团队。
好奇心和想象力,也许是人的终极价值
智能体对用户的帮助,可以分为三类:助理、分身、导师。
助理empower me, 帮我解决那些长尾琐碎的问题,
分身 duplicate me, 帮我解决时间冲突的问题;
导师 upgrade me, 帮我提升,成为更好的自己。
要让助理有效工作,必须清楚告诉它要干什么;就像把逻辑和规则给到传统软件一样,这样它才能执行任务。
要让分身有效工作,必须清楚我是谁,我的态度,价值观和独有视角,这样它才可以代表我。
要让导师有效工作,必须清楚我要什么,我喜欢什么,我重视什么,我想要成为什么样的人,这样它才可以帮助到我。
智能体当然会大规模地替代人类工作。
库克曾经说,不担心机器越来越像人,更担心人越来越像机器。
但真正的担忧是,当机器能够越来越像人一样思考,普通人是否还能继续独立思考,是否会去积累自己的经验,是否还有好奇心和想象力,而不是过于依赖于人工智能?
对了,好奇心和想象力,这是目前似乎大模型所唯二不具备的品质。
PS,ChatGPT对本文的点评:
本文来自微信公众号:橙竹洞见(ID:gh_013fe5eb0b97),作者:竺大炜
相关推荐
张小龙:像佛陀一样思考
像动物一样行动,像植物一样思考
Salesforce AI Research 刘志伟:像Agent一样思考 | Agent Insights
AI时代不需要产品经理?
Facebook:天才CEO像黑客一样思考
拐点时刻?AIGC时代的新闻业
从AI画画到“用声音做视频”,全球掘金AIGC | 焦点分析
从UGC到AIGC,Web3.0时代如何解放创造力?
月薪6万,哪些AI岗位在抢人?
36氪专访|对话Nolibox:从AI生成艺术到AIGC,开源生态下的核心竞争力在于产品理解
网址: AIGC时代的产品思考:像用人一样用AI http://m.xishuta.com/newsview115233.html