事情是这样:
前几天,我在群里看到有人和AI互动,觉得挺有意思。我也打开DeepSeek,输入相同的问题:你认为人类最伟大的地方是什么?请用四个字概括。
大家的答案五花八门:仁者见智、不断超越、爱与和平……而我的答案是:知行合一。为了对比,我又用豆包、Kimi、腾讯元宝这几个工具试了试,发现答案都不一样。
大家玩得很开心,但我心里却冒出了疑问:为什么同一个问题,不同AI工具给出的答案会这么不一样?是因为它们的模型不同,还是处理方式有差异呢?
经过反复琢磨,我发现每个AI似乎都有自己独特视角,就像不同的人一样。它们会根据自己的“价值观”去解释同一个问题。这种差异让我联想到了“信息茧房”。
一
以前,我们总说信息茧房是推荐算法造成的。
社交媒体、内容平台会根据浏览记录和兴趣爱好,给你推送内容。乍一看,这种方式挺贴心的,实际上,它会让你接触到的信息越来越单一,很容易让人陷入一个封闭的信息圈。
不过,随着AI搜索工具(比如ChatGPT、Perplexity)的普及,信息茧房的形式也在悄悄改变。现在AI搜索,不再单纯依赖平台的推荐,而是通过“搜索行为和提问方式”来定制结果。
你搜什么、怎么提问,以及你愿意接受哪些答案,都会直接影响你看到的信息范围。这种新的茧房形式,我们可以叫它“搜索茧房”,或者更形象一点,叫它“生成式幻觉茧房”。
那么,搜索茧房与传统信息茧房相比,区别在哪呢?
形式不一样,这是第一点。
传统信息茧房是我们刷媒体、看视频时,推荐算法根据之前点了什么、喜欢什么、停留时长来推荐内容。基本不用自己去找,慢慢地就把我框在一个小圈圈里了。
搜索茧房更像自己主动跳进去的。比如:我用AI工具搜索一个问题、输入什么关键词、直接决定它给出什么样的答案;现在还不确定AI会不会偷偷看我的手机习惯,或者根据我搜东西的意图来调整回复。
不过有一点挺明显:在一个聊天框中频繁对话几次,推理模型能理解我想要什么。换句话说,它用它那高大上的视角,悄悄把我给圈住了。
第二点,内容差异很明显。
传统信息茧房内容,大多是平台已有的内容,搜索茧房不一样,内容是AI当场“造”出来的。我问个问题,它靠着自己的训练数据和算法,现场给我整出一个答案。
这个过程我完全看不见,就算它能标个引用来源,生成的部分还是它根据学过的东西“捏”出来的。所以,有时候我拿到的,可能只是某个“版本”的真相。
第三点,参与过程的区别也很明显。
传统信息茧房中,我们最多点个赞,或者浏览一下。搜索茧房中,表面上把主动提问的权力交给了我们,但实际上,这种主动权并没有真正掌握在我们手中。
因为搜索方式、用词习惯,甚至选择哪个工具,都会直接影响搜索结果。这些限制是隐藏起来的,很难察觉。
这种隐蔽性还体现在,当我们提出问题并得到答案时,很容易误以为“我选的是对的”,而不会怀疑自己其实被局限在一个很小的范围内。
比如,我们问了一个问题,AI给出了一个答案,我们可能就以为这就是全部真相,但其实可能只是冰山一角。
相比之下,传统信息茧房里,当我们刷了很长时间的短视频,发现内容都差不多时,我们内心会产生反感,甚至会警觉起来。
二
你以为就这些吗?不,还有。其实,这两种茧房在时间和依赖性上也有很大区别。什么意思呢?用AI搜索时间长了,就会越来越依赖它的反馈增强系统(feedback system)。
传统算法推荐是“养成系”,像慢慢把你养在一个舒适圈里,让你习惯了它给你的东西;主动搜索更像是“定制系”,你有什么需求,它就马上给你量身定做。
这种定制每次都能快速给你答案,可越用越依赖,到最后,你连多找找资料、核实一下的耐心都没了。
有一次,我在小红书上看到有人评论“CDPP”,我完全不知道这是啥意思,顺手搜了一下,结果出来“处对象”。我还以为这是个新潮说法。
后来我好奇,又去百度搜,结果出来“彩带飘飘”。你看,这俩完全不一样。这种快速搜到答案的体验,让我越来越懒得去多想,连“这到底对不对”的疑问都消失了。
说到底,搜索茧房是传统信息茧房的升级版。它披着“聪明”和“主动”的外衣,表面上看起来是我自己在掌控,其实还是悄悄把我框在一个小世界里。
这让我忍不住思考:为什么AI会制造出搜索茧房?
说到底,这事儿跟AI本身、我们的使用习惯,还有背后的商业逻辑,都脱不开关系。
先说AI本身。
从使用者的角度看,AI的核心任务是给我们提供“最好的答案”。每次我们用它搜索,它就靠算法和数据,给我们一个看起来很满意的答复。本来,AI的设计是为了更懂我们,但问题是,AI的知识和处理方式,其实也有自己的“性格”。
我举个例子:
现在很多人都在用DeepSeek推理模型,还有Kimi的K.15长思考模型。我发现,DeepSeek像个专家,回答很专业、很理论化,而Kimi更像是个聊天高手,回答更口语化、更接地气。
这就跟找不同的人问问题一样,他们会根据自己的经验回答,结果自然就不一样。这种差异,不知不觉就把我们的信息范围给局限了,形成了“搜索茧房”。
更关键的是,我们自己也在不知不觉中“帮倒忙”。
我有个习惯,如果AI的回答不是我想要的,我会直接说“这不是我想要的”。时间长了,在一个对话框内,AI会根据我的反馈调整答案;这样一来,双方互相强化,茧房的墙就越来越厚了。
还有一个绕不开的因素是商业逻辑。
AI工具不会永久免费,大家怎么赚钱呢?肯定是希望用户用得越多越好,最好离不开它,然后收其他费用。
比如,Perplexity每月要收订阅费,免费用户搜内容时,可能就会看到植入广告。这种商业逻辑也推动了AI搜索的“千人千面”设计。
虽然现在国内的大部分 AI 产品没有收费,但间歇性它在收集我们的大量语料。
我印象里,OpenAI的创始人奥特曼说过,要实现通用人工智能(AGI),AI得像自动驾驶一样,根据不同人的需求提供定制化的服务。
换句话说,AI必须满足每个人的不同需求,同样的问题,给你不一样的答案。所以,AI制造“搜索茧房”,是AI本身的特性、我们的使用习惯,以及背后的商业逻辑共同作用的结果。
三
搜索茧房一定是坏事吗?我觉得也不一定。它可能带来一种新的“商业效率”。
昨天刷抖音时,看到小米王腾和许斐被人调侃说像夫妻。我挺好奇,就去搜了搜。抖音搜索说他们是夫妻,我还有点惊讶。结果用豆包一搜,说俩人只是同事。
我把这事儿发到群里,字节的朋友转发给内部处理了。
说到底,这是AI学的语料被污染了。
但换个角度,从商家、品牌营销的立场看,这事儿其实挺常见。品牌方会批量生产关于自家品牌的内容,通过各种渠道塞给AI。
这样一来,别人搜相关问题时,看到的就是定制化的信息。就像一种软性植入,跟广告投放差不多。所以,到底是好是坏?真不好一刀切。
说到这儿,我想起之前朋友说的,给AI做SEO最好的办法,是一篇文章里多加一些关键字,或频繁提到某些东西。这样大量铺出去,AI抓取时效率就会很高。
还有人说,尽量多生产一些长内容,因为AI会判定这些内容质量很高;其实,长内容也不一定非得做得多好,主要是它的判定机制。
从商业角度看,这种做法确实能精准地找到目标用户,提高了效率。可对用户来说,感觉像被困在了一个“定制化”的信息茧房里,未必是啥好事。
不管怎么说,还是要小心别被AI搜索“茧房”给困住了。
四
如何防止搜索带来的茧房呢?我踩过不少坑,在过程中也总结了一些方法,你可以试试。
初级阶段,基础认知有三点:
1. 别只用一个工具。今天用Kimi,明天试试腾讯元宝。不同的AI有不同的“性格”,一个问题多问几个AI,答案会更丰富。
2. 多反问。比如:你想知道“为什么AI好”,也可以反过来问“为什么AI不好”。让AI帮你反思,它会从不同视角给出答案。
3. 别只看AI给的答案。你想让AI帮你验证新闻是不是真的,或者数据从哪儿来的,你也可以自己手动查一查。这样,你就不容易被AI误导(这块我可踩过坑)。
到中级阶段,要玩转策略,熟练掌握怎么跟AI打交道。
你可以试着换着花样更新提问的方式,别总用黄金圈法则、5W2H法则,也可以把它们组合一下,甚至自创一套提问方式。
我在提问时,喜欢让AI把商业、心理、伦理这几个角度揉到一块儿,这样问出来的答案视角就变了。为什么这么干?因为AI学的内容多少都是按学科分门别类的,交叉着问,有点像打破了规矩,逼它从不同方向给你讲明白,答案自然就丰富了不少。
还有,换着花样问问题特别管用。
比如:想知道“AI咋改变生活”,可以换成“AI在哪些想不到的地方影响了咱们?”或者“AI给普通人添了啥麻烦?”
这么一调整,问题就变了。这不是逆向思维,更像多维度的探索,能帮我从更多角度挖掘问题。
高阶阶段,还得靠人工检查。
因为有些东西,AI在短问短答时,还能答对,但要是连着问好几轮,它就容易出现幻觉。比如人名、日期这些细节,还得靠我们自己去核实。
所以,多变着花样问问题,多用几个工具对比答案,多核实信息,甚至故意找找对立面。这样一来,就不那么容易被AI套牢了。
最重要一点:建立一种重新认识搜索茧房的思维方式。毕竟,你看到的,才是你的世界,就像王阳明所说“心外无物”一样。我们所感知的世界,由内心认知决定,只有当我们主动拓宽视野,才能真正打破搜索茧房的局限。
本文来自微信公众号:王智远,作者:王智远
相关推荐
如何摆脱信息茧房?
热点事件一再反转,并非是“信息茧房”误导
关于“信息茧房”,误解、真相和破解
重新理解信息茧房:为何科学研究与我们主观感受相反?
信息茧房:人人痛骂,却又沉溺其中
算法导致“茧房”“回音室”?学术研究说NO
困于“茧房”只能折翼飞翔
伪科普上热搜,真科普关“信息茧房”?
喻国明:算法是信息茧房的缔造者,还是打破者?
我们真的生活在“信息茧房”中吗?
网址: 如何防止陷入AI“搜索茧房”? http://m.xishuta.com/newsview133222.html