文 | 佘宗明
你以为自己是不平,其实你只是钻进了别人精心设计的“情绪陷阱”;你以为自己是不忿,其实你只是吞下了别人专门投下的“愤怒诱饵”……这层后真相时代的真相“窗户纸”,被牛津词典捅破了。
前不久,牛津词典团队公布了2025年牛津年度词汇:愤怒诱饵(rage bait)。
什么是“愤怒诱饵”?简单来说,就是故意用刺激性内容引发网民愤怒,借机获取流量。摆拍“儿媳给住院婆婆吃泡面”“外卖骑手被顾客羞辱”,皆在此列。
毫无疑问,“愤怒诱饵”现象值得警惕:当愤怒成为被批量生产的博流量工具,随之而来的是社会戾气的加重、舆论质地的劣化。
可从舆论反应看,部分人又顺着“遇事不决,量子力学;归因无妨,信息茧房”的流行总结归纳法,将箭头对准了算法,被顺带着提及的高频词还有“信息茧房”。
在他们看来,“愤怒诱饵”背后是算法捕网,是算法编织的信息茧房提供了传播温床,“愤怒诱饵”才会潜滋暗长。
这不免让人想起柏拉图的“洞穴寓言”:许多人错将墙上投影认成真实世界,却对真正光源视而不见。
01
索维尔曾说过:如果你认为人类总是理性的,那么,至少一般的历史是无法解释的。
为什么网络上会出现“愤怒诱饵”现象?原因也跟那三个字紧密相关:非理性。
神经学研究表明:大脑对坏刺激的反应比对好刺激更强烈,而且留下的痕迹更深,所以坏消息会让我们产生更多的注意力。社会学中的注意偏向理论也与此相通:跟中性刺激比,情绪性刺激更容易捕获个体注意力。
也就是说,当那些争议性话题出现在公众视野中时,用户会本能地投以更多关注。
正是看到了这点,那些流量捕手玩起了情绪操控把戏:他们通常会先“选饵”,识别争议性话题和冲突性元素(如性别对立、地域歧视、代际冲突、阶层差距等);再“制饵”,将极端标签、反差情节、失真细节等精心调配,糅在一块;接着“下钩”,通过标题党、伪造截图等手段,激起网民愤怒;最后“收网”,获取流量后,想法子变现。
说到底,是人类注意力机制的非理性特征跟部分人流量饥渴下的行为扭曲,共同催生了“愤怒诱饵”现象。
在某些人的想象中,“愤怒诱饵”盛行离不开算法对“愤怒-互动-推荐-更多愤怒”的恶性循环的助推。
但这更多的是想当然。因为很多人脑补出的“传播者-用户-平台”共生关系在“愤怒产业链”上并不存在。
事实一再表明,用户频繁刷到制造矛盾、渲染对立的内容后,产生的负面情绪最终导向的不是停留,而是逃离,不是沉迷,而是卸载;而充满戾气的社区环境或平台氛围,也很难受到品牌方青睐,商业价值会骤减,还可能承受监管层面压力,风险系数会剧增。
这意味着,“愤怒诱饵”带来的“恶流量”跟平台在用户体验、内容安全、商业利益上的追求,存在根本性冲突。在“愤怒诱饵”引发的社会撕裂、信任危机会导致平台利益受损的背景下,平台又有多少动力去拥抱其带来的“恶流量”呢?
多家平台出台治理办法,对为博取流量刻意制造冲突、煽动引战等内容,以及发布煽动蹭热内容的“恶意营销号”等进行重点治理,就是在释放信号:面对“愤怒诱饵”现象,平台要充当“过滤器”而非“助推器”角色。
02
要看到,无论是“愤怒诱饵”,还是之前的“傻子共振”“算法离间”,这些新词在舆论场激起的涟漪,本质上都是“算法织茧说”的回响。
在民粹、饭圈、打拳等问题肆虐的当下,不少人已习惯了将问题归咎于算法构筑的信息茧房。这看似是化繁为简,实则是化约惯性与思维惰性的反映。
在这问题上,我的主要看法是:
1,“信息茧房”是否存在还难说,但“认知茧房”真真切切存在。
“信息茧房”究竟是真实存在的“赛博囚笼”,还是想象出来的稻草人议题,学界至今都莫衷一是。毕竟,“信息茧房”的假说在学术性实证研究中从未被证实过。
但这不等于“认知茧房”就不存在。说白了,算法是放大器,它的放大效应会在“人塑造环境”和“环境塑造人”的双向交互中倍数级还原出人的多面性来。算法会在同频共振中放大向美向善的力量,也会暴露许多人获取信息上路径依赖,沟通信息上社交衰退、消化信息上感情用事的弊端……这些凝结成的,就是“思维茧房”“社交茧房”“认知茧房”。
2,信息偏食是依托人脑“过滤罩”的自我保护机制,没那么可怕。
很多学者都倾向于认为,信息茧房是伪命题,信息偏食是真问题。就连“信息茧房”概念的提出者桑斯坦,都将“信息茧房”症结归于“信息偏食”。
信息偏食,其实是人脑基于喜同恶异、趋利避害本性自动开启信息筛选的脑部减负机制,为的是避免信息过载。
3,真正可怕的,不是算法,而是信息的单一控制和限量供给。
信息匮乏时代的“茧房”是物理性的,因为没得选——今天那些言必称“信息茧房毁了下一代”的人,可能忘了在社交媒体出现之前大家只能听“同一首歌”。
信息丰裕时代的“茧房”则是心理性的,它不是由分发渠道决定,而是由大脑的信息加工机制塑造。
03
说这些,核心也是在回应两个问题:“茧房”到底是怎么形成的?算法真的会筑茧吗?
先来说第一个。
前不久,世界权威学术期刊《Science》发了篇论文《不要责怪算法:社交媒体可能天生就存在两极分化》,介绍了来自阿姆斯特丹大学逻辑、语言与计算研究所的最新研究成果。
研究团队搭建了无个性化算法的极简社交平台,仅保留发帖、转帖和关注功能,投入500个带有固定人格设定的AI机器人模拟人类行为。实验结果显示,无需算法干预,机器人在5万次互动后便会自动形成阵营:立场接近的互相关注,极端观点的传播速度远超中立内容。
结论是:“信息茧房”的形成并非算法所致,而是人类趋同避异社交本能的自然产物,即便没有算法,社交媒体也会存在极化现象。
这从社会心理学层面也能得到解释:人类的注意力分配和记忆编码机制,天生自带“茧房”倾向。“确认偏误”会让我们更关注我们愿意关注的信息,“负面偏好”会让我们对令人愤怒的事物记忆更深刻,“可得性启发”会让我们高估近期接触信息的重要性……
算法给用户推送了100条内容,其中80条符合用户兴趣,15条是系统主动探索的多样性内容,5条是随机噪音,可用户大脑往往会选择性遗忘那95条,牢牢记住那几条让自己愤怒或惊喜的“极端”信息,这已成常态。
在《打破社交媒体棱镜》中,杜克大学教授克里斯·贝尔还通过实验给出了另一个“反直觉”的结论:即便强制让人接触对立观点,也不会使其变得温和,反而会促使其强化自身立场,变得更加极端。
言下之意,在社交媒体上的认知封闭,本质上是人类本性在网络空间的延伸。与其说是算法在制造茧房,不如说是人类认知系统自身在编织滤网。
再来说第二个。
如果算法让人们看到的都是自己想看到的、听到的都是自己想听到的,那确实会筑茧。
但事实上,算法早已从单一的兴趣匹配进化为多目标优化体系,抖音算法推荐不仅会考虑“用户喜欢什么”,更会主动控制相似内容的出现间隔、频次上限,强制插入多样性内容,并通过随机推荐、社交关系兴趣拓展、搜索推荐联动等方式,帮助用户突破既有兴趣圈。
有意思的是,著名传播学者喻国明还认为,智能算法推荐具有反信息茧房的本质,“采用多种算法的信息分发平台所具有的社会构造,从信息流动来说,总体上能够有效地避免‘茧房效应’的发生”。换句话说,算法非但不会筑茧,还能破茧。
这并非没有依据。某平台此前公布的“双塔召回模型”,就是通过将用户和内容转化为高维空间的数学向量,实现脱离具体语义的精准匹配,发掘用户潜在兴趣领域,让用户刷到意料之外但又在情理之中的内容。
在著作《必然》里,凯文·凯利曾提出“理想的过滤器”设想:它应该推荐那些“我想知道我的朋友喜欢什么,而那又是我现在还不了解的”,以及“它将是一种会向我建议某些我现在不喜欢,但想尝试着喜欢的东西的信息流”。
目前看,算法进化已经让这番畅想变为现实。
04
这倒不是说算法已经臻于至善了,只是说很多人对算法有许多因不解而生的恐惧、因误解而生的敌意。
怎么消除这些不解和误解?用算法透明化去祛除“算法魔法化”的想象,是应有之方。
多年来,堵在算法透明化面前的那堵高墙叫“商业秘密”,但今年以来,有个明显迹象是,很多中国互联网公司在主动拆“墙”。有平台就在构建起包含规则阐释、案例解析、互动答疑的多维沟通体系,让算法走出黑箱、走向透明。
这其实就是用算法祛魅来消除大众对“不受控制的技术权力”的担忧:当平台将如何通过“多目标建模”平衡短期互动与长期价值、如何设置“多样性约束”避免内容重复、如何引入“探索因子”突破兴趣固化等呈现在公众面前,算法的“可理解”本身就成了公共产品。
对算法污名化的最好阻击,就是将其置于“可解释、可参与、可监督”的透明化治理框架下。那样一来,用户会逐渐明白:算法不是独立的价值主体,而是人类行为的映射,不是神秘的巫术魔法,而是可被监督可改进的工具,它并不全能,也非万能。
循此看去,有两点渐次明了:1,将那些复杂的社会结构性问题简单归结为算法原罪,在自己作茧自缚后怪罪于算法织茧,都是选择性遮蔽下的归因偏差;2,很多时候,技术不是问题,放弃人的自主性才是。
拿“愤怒诱饵”现象来说,“愤怒诱饵”太多,算法没法背锅。不能因为算法“不会说话”,就让它客串窦娥、充当标靶。
算法确实还有很多不足,但解决之道不是打倒算法,而是让算法在阳光下运行,让公众理解算法原理,让平台承担起治理责任,让用户重掌信息主权。当人们更多地承认其局限、发挥其价值,那个被迷雾笼罩的人机共处未来才会愈发清晰。
这其中,我们掌握自己的信息主权很重要。纳萨尼尔·霍索恩说过:你关注什么,最终你就成为什么。
将其换成另一个表述就是:每个人,都是自己接收信息情况的第一责任人。









