仇恨算法:社交媒体如何助长激进主义
2025年5月,法国数字发展部长呼吁在欧洲范围内禁止15岁以下儿童使用社交媒体 —— 此举旨在保护他们免受算法驱动内容的有害影响。这种担忧并非新出现,但如今愈演愈烈。研究表明,过去十年间,推荐算法已悄然掌控了我们的数字生活。它们决定着我们能看到什么、看不到什么,在试图推测我们的喜好时,往往更青睐那些充满情绪张力、具有分裂性、耸人听闻且常常带有激进色彩的内容。
这类内容正是极右翼群体和政客们倾向于制作的。而这并非技术上的偶然 —— 它正在重塑政治格局。激进帖子能获得更多点击、更多互动,也更受算法 “青睐”。其结果是:人们最终被困在为自己量身定制的 “回音室” 中。研究人员表示,这并非系统漏洞 —— 而是系统的设计初衷。这些平台的构建目的,就是让人们不断滚动屏幕、分享内容,并困在封闭的意识形态泡泡里。案例:一个年轻人的激进之路
贾斯汀・布朗 - 拉姆齐如今是布朗大学的历史学博士生,他亲身体验过这条道路。2015 年,他上高中时,父母正经历离婚。难以应对现实的他开始花越来越多时间上网,也就是在这时,他偶然接触到了乔丹・彼得森 —— 这位加拿大心理学家、YouTuber,某种程度上算是右翼导师。屏幕上的彼得森给了贾斯汀迫切需要的东西:共情、理解,以及看似简单直接的掌控人生的建议。但在这些信息之外,还包裹着保守派的论调,比如西方文明的衰落、“取消文化” 的危害等。
YouTube 算法很快捕捉到了贾斯汀的兴趣。不久后,他的推送栏就充斥着右翼和极右翼博主、网红及政治评论员的内容,没过多久,这成了他唯一能看到的内容。他开始花数小时在 #MeToo 视频的评论区与陌生人争论,照搬彼得森的辩论技巧,试图 “击败左派”。
渐渐地,他与朋友疏远了。在种族主义、跨性别权利等热点问题上的分歧,变成了无法弥合的裂痕。他在网络世界陷得越深,在现实生活中就越感到孤立。最终将他拉出来的,不是某个 viral 帖子,也不是算法的改变 —— 而是教育。对历史的研究让他获得了退一步审视的工具,重新建立连接,并开始更批判性地思考。
但并非所有人都有这样的机会。
坠入深渊:社交媒体如何将用户陷进激进内容里
贾斯汀的故事是研究人员所说的 “激进主义传送带” 的典型案例,尽管一些研究和报告给这种现象起了不同的名字:比如 “另类右翼管道”“兔子洞”。但无论名称如何,核心逻辑很简单:一个观点尚未成型或摇摆不定的人开始在网上接触内容,逐渐被算法驱动的推荐洪流裹挟,其整个世界观都可能因此改变。这一点在新冠疫情初期尤为明显 —— 当时反疫苗团体的追随者数量大幅激增。不久后,许多这类团体就演变成了成熟的极右翼阴谋论社群。
那么,算法为何会这样运作 —— 为何不断将人们推向极右翼内容?毕竟,贾斯汀本可以被推荐其他心理学家或面向年轻人的人生导师的视频 —— 这才是最初吸引他关注彼得森的原因。但推荐系统却不断将他推向强硬的右翼政治。
答案在于这些系统的设计逻辑。它们并非为了教育、告知或平衡观点而建 —— 而是为了抓住我们的注意力,让我们尽可能长时间地留在平台上。而最能实现这一目标的内容,是那些能引发争议、激起愤怒或煽动情绪的内容。通常情况下,这意味着政治内容 —— 尤其是激进、分裂的内容。
2022 年 5 月 14 日,纽约州金斯利街区的托普斯友好市场发生大规模枪击事件,造成 10 人死亡、3 人受伤,几乎所有受害者都是非洲裔美国人。袭击者、18 岁的佩顿・S・金德伦在 Twitch 平台上直播了这起事件。袭击前,他撰写了一份宣言,自称是白人至上主义者,并支持 “大替换” 阴谋论。
2017 年,一个自称 “QAnon” 的用户出现在 4chan 上,声称自己是美国国家安全委员会成员,甚至是白宫工作人员。该用户宣称能接触到所有国家机密,并写道一场针对 “施虐恋童癖者” 的行动即将展开。根据 QAnon 的说法,以特朗普总统为首的 “儿童保护者” 正准备大规模逮捕民主党领导层、媒体人士、记者及其他所谓 “深层政府” 的代表,据说其中一些人会被当场处决。
“这听起来像好莱坞惊悚片的剧情:一个秘密组织的卧底成功渗透白宫,” 英国广播公司记者、《即将到来的风暴:走进阴谋机器的核心》(一本关于美国阴谋论的书)的作者加布里埃尔・盖特豪斯写道,“他的任务是揭露并摧毁一个精英恋童癖和儿童贩卖者集团。好人正在对抗强大的势力 —— 邪恶的‘深层政府’。目前,行动仍在秘密进行,但很快一切都会揭晓,唐纳德・特朗普将站出来说:‘我的美国同胞们,风暴已经来临……’这一阶段的行动被描述为‘风暴前的平静’。”
算法的设计逻辑:抓住注意力,延长在线时间
当然,不同平台有不同的模式。但最终,无论是有意设计还是偶然结果,许多平台对右翼内容的推送都远超其他内容。
一个很有说服力的例子来自 Twitter 内部。在埃隆・马斯克收购该平台前,公司的一项内部研究显示,右翼政客和媒体机构的推文在用户的算法时间线中被放大的可能性,高于左翼来源的内容。这一趋势在 7 个受研究国家中的 6 个都成立 —— 包括美国、英国和加拿大。在加拿大,右翼推文的受青睐程度是其他内容的 4 倍。
全球见证组织 2025 年 2 月发布的另一项研究,调查了德国联邦选举前 TikTok 和 Twitter(现更名为 X)用户收到的内容。结果很明确:两个平台的 “为你推荐” 栏都充斥着极右翼内容。在 TikTok 上,78% 的政治推荐内容与极右翼的德国选择党(AfD)相关 —— 尽管该党的实际支持率不到 20%。在 Twitter 上,63% 的推广政治内容也以德国选择党为中心。平台层面的偏见显而易见,且会影响公众舆论:反复接触 “激进内容” 确实会让人支持类似的激进观点。
另一项研究表明,TikTok 的 “为你推荐” 栏并非被动反映用户偏好的中性镜子。相反,开展这项研究的学者认为,“激进主义传送带” 的逻辑已深深嵌入平台设计中。他们表示,激进和极右翼内容的快速传播和病毒式扩散并非偶然 —— 考虑到算法的运作方式,这是完全可预测的结果,即便这类内容并非观众自己真正想看的。
兰卡斯特大学政治、哲学与宗教系的国际安全学教授乔・伯顿在其题为《算法极端主义?》的论文中指出,算法如今在政治中扮演着越来越核心的角色。它们远非中立工具,而是在积极助长两极分化、激进主义甚至政治暴力。伯顿认为,问题不仅出在社交媒体上 —— 其根源在于人工智能和算法系统的设计与部署理念。
这些算法的设计有意利用人类心理学中已被充分证实的弱点。社会学家和心理学家早就指出,社交媒体平台利用了我们的认知偏差 —— 尤其是确认偏误,即人们倾向于寻找并相信支持自己已有观点的信息。
为了让用户保持活跃,算法不断推送与他们现有观点一致的内容。如果有人对极右翼政客表现出兴趣,就会收到更多极右翼内容;如果有人对疫苗表示怀疑,就会开始看到反疫苗内容。长此以往,就形成了所谓的 “过滤泡”—— 一个人为构建的空间,里面的人观点一致,相反的观点则被过滤掉。
根据一个被广泛认可的心理学框架 —— **群体极化模型,在一个所有人观点都一致的社群中,人们不仅会强化原有信念,还会互相推动,走向更极端的立场。**再加上激进主义传送带的机制,结果就形成了一个令人不安的反馈循环:算法不仅反映极端意识形态,还会加深这种意识形态,让用户更难摆脱周围人都认同的错误信念。
无形的算法,真实的暴力
网络极端主义并非总能停留在网络上。2022 年纽约布法罗的大规模枪击事件就是一个令人毛骨悚然的例子。州检察长的一份报告显示,算法驱动的推荐以及有害内容删除的延迟,在枪手的激进化过程中起到了关键作用 —— 并最终导致了这起暴力事件。在英国,Bellingcat 对极右翼影响网络的调查显示,YouTube 和 Telegram 等平台如何充当招募枢纽,将新用户引向极端论坛和孤立的激进社群。网飞热门迷你剧《青春期》就探讨了一个陷入类似文化和信息泡泡的青少年的生活。
2022 年布法罗袭击事件后不久,枪手被捕 |
英国军情五处等情报机构已经注意到这一问题:在英国,被标记为潜在恐怖主义风险的人中,多达 13% 年龄在 18 岁以下。【本文举的例子是男性群体,极端女拳也同样存在】
他们在网络上的活动区域被称为 “男人圈”,这是一个松散连接的社群网络,包括男性权利活动家、非自愿独身者(incels)和搭讪艺术家,以泰特兄弟、阿森・马尔卡良等网红为代表。与其他激进管道一样,“男人圈” 的入口往往是无害的,比如游戏直播。
朴茨茅斯大学的一项研究发现,许多游戏中对性别(乃至对人)的简化、刻板描绘,为某些网红创造了沃土 —— 他们利用游戏文化作为平台,宣扬反女权或公开的厌女意识形态。而算法再次发挥作用:它们没有推荐更多与用户游戏兴趣相关的内容,而是开始将用户推向与 “男性领域” 相关的材料。
尽管 “男人圈” 的知名人物常声称自己只关心男性的福祉和心理健康,但现实可能黑暗得多。今年早些时候发表在《儿童与青少年心理健康》杂志上的一篇论文警告,接触这类内容的年轻人更易患上抑郁、焦虑,并出现社交退缩。网络厌女者宣扬的 “男性受害者论” 不仅无法治愈创伤,还会加深疏离感和怨恨。
《卫报》记者做过一项实验:他们在 Facebook 和 Instagram 上创建了空白账号,只填写了性别和年龄(男性,24 岁)。几周内,两个账号的推送栏就充斥着性别歧视 meme、关于 “传统天主教价值观” 的帖子,以及女性的过度性感化图片。
算法还可能助长政治暴力。《华盛顿邮报》基于 Facebook 内部文件(即所谓的 “Facebook 文件”)进行的调查显示,该平台的算法实际上加速了 2021 年 1 月 6 日冲击美国国会山事件的组织和动员。早在 2019 年,Facebook 研究人员就发现,一个设定为 “北卡罗来纳州保守派母亲” 的测试账号,在第五天就开始收到 QAnon 阴谋论内容 —— 这显示算法导致的激进化速度有多快。
Facebook 对 “停止偷窃”(Stop the Steal)团体也迟迟未采取行动 —— 该团体名称源于特朗普支持者的口号,他们声称 2020 年大选存在针对特朗普的舞弊。2020 年 12 月,当公司最终封禁该主要团体时,数十个模仿页面却借助自动 “超级邀请”(一次可添加 500 人)实现了爆炸式增长 —— 再次让推送栏充斥着激进的暴力呼吁。
特朗普的 “算法诡计”
即便是算法回音室的受益者,也开始对此抱怨。在 “觉醒 AI” 的旗号下,特朗普第二届政府将长期以来对算法泡泡危险的担忧,变成了文化战争的又一个战场。2025 年初,美国国会要求亚马逊、谷歌、Meta、微软、OpenAI 等公司提供内部文件,据称是为了调查所谓的 “算法偏见”—— 指控这些平台宣扬包容性和左翼议程。
在巴黎人工智能峰会上,副总统 J.D. 万斯公开宣称,本届政府将 “确保在美国开发的人工智能系统摆脱意识形态偏见,永远不限制公民的言论自由”。但实际上,这是对国际社会和企业界旨在减少人工智能偏见的努力的回应 —— 这些努力自然包括削弱右翼倾向。而这显然与万斯的利益相悖。**对特朗普和万斯来说,确保人工智能和算法负责任设计的努力并非保障,而是威胁。**他们正竭力将这些保障措施描绘成对创新和言论自由的危害。
这与埃隆・马斯克收购 Twitter 前的抱怨如出一辙 —— 他声称该平台对保守派存在偏见,尽管所有证据都与此相反。自然,在马斯克收购该公司后,右翼倾向只增不减:如今,公开的新纳粹内容在平台上泛滥,且被积极推广。
早在 2018 年,特朗普就指控谷歌搜索引擎 “针对他作弊”,并警告社交媒体平台正面临 “非常严重的局面”,他的政府必须介入解决。这一策略的核心,就是《今日心理学》所称的 “特朗普算法”:所有支持他成功的正面信息都被视为真理,所有负面新闻则立即被斥为假新闻。
那么,平台为何不改变算法?因为用户参与度决定广告收入 —— 而愤怒和激进主义能提升参与度。基于网站停留时间和点击率的算法,自然青睐煽动性内容 —— 越尖锐越好。再加上马斯克自身将平台向其偏好意识形态倾斜的政治动机,就形成了一个抵制改革的系统。当极端主义有利可图时,就没有理由投资更好的内容审核。何必修复能赚钱的东西呢?
未来何去何从?
欧盟《数字服务法案》要求平台披露算法的工作原理,并接受独立审计。该法律于 2024 年 2 月全面生效。批评者称其仍缺乏透明度,而支持更严格监管的人则提议引入 “算法标签”,向终端用户公开关键参数。另一些人则认为该法律过于严苛,限制了平台和用户的自由。
不过,正如美国司法部长的一份报告所强调的,法律改革正落后于人工智能系统的快速发展。
扭转这一趋势需要集体决心。平台必须改变其激励机制,研究人员需要设计有效的审计系统,立法者必须制定灵活的规则,让科技公司承担责任。最重要的是,用户必须提高意识,了解算法如何塑造他们所消费的信息。理解数字推送背后的隐藏逻辑,是关键的第一步。
评论