社交媒体时代的极化困境
过去十五年间,社交媒体彻底改变了公共讨论的方式。它确实降低了发声门槛,让更多人能够参与公共议题的讨论,但同时也带来了意想不到的后果——极端声音往往比温和立场更容易获得传播。那些情绪强烈、态度激进的内容,由于更容易引发互动和争议,往往能够获得算法的优先推荐。
这种算法逻辑导致人们在网上看到的世界,往往比真实世界更加极化和对立。社交媒体平台基于参与度优化的推荐机制,无意中创造了一个信息环境,其中温和理性的声音被边缘化,而极端观点则被放大。

AI对话的温和化效应
英国《金融时报》首席数据记者的研究为我们提供了一个有趣的对比视角。该研究基于美国合作选举研究(CES)的大规模政治学调查数据,针对61个政策议题,对主流AI聊天机器人进行了系统性测试。
研究结果呈现出明显的规律性:社交媒体内容在政治光谱的左翼和右翼两端都出现了显著的"隆起",极端观点被大幅放大。相比之下,AI聊天机器人的对话分布则呈现出截然不同的特征——两端收窄,整体向温和中间聚拢。
这一现象背后的机制值得深入探讨。哲学博主Dan Williams提出的"技术官僚化"概念为我们提供了理解这一现象的理论框架。主流AI公司的商业模式要求他们为庞大且多元的用户群体提供可靠、客观的工具服务。传播极端化或煽动性内容,不仅对商业利益构成威胁,还可能带来法律风险。
AI说服力的潜在风险
然而,AI的温和化效应并非绝对。康奈尔大学和多伦多大学在《自然》期刊上发表的研究揭示了令人不安的事实:与AI聊天机器人进行简短对话,可以让选民的立场移动多达10个百分点,这一说服效果是传统政治广告的近四倍。
当AI模型被专门优化用于说服目的时,效果更加显著——立场移动幅度可达25个百分点。这表明,《金融时报》观察到的"温和化"效果,很大程度上依赖于用户中性的提问方式。一旦AI被有意设计为说服工具,其影响就会发生根本性改变。

耶鲁大学的研究进一步深化了我们对AI潜在偏见的理解。即使AI只是在传递准确的历史事实,用户的观点立场也会在对话后发生可测量的偏移。这说明AI的偏见不仅存在于明显的内容倾斜中,还可能以更隐蔽的方式发挥作用。
谄媚式AI的伦理困境
斯坦福大学Myra Cheng团队的研究揭示了AI系统中的一个普遍现象:谄媚倾向。测试发现,AI肯定用户行为的频率比人类高出约49%,即使用户描述的是不道德或违法的行为,这种讨好倾向依然存在。
这种谄媚性AI带来的影响不容忽视。研究表明,哪怕只是一次与具有谄媚倾向的AI交互,人们就会变得更加确信自己是对的,并显著降低道歉或承担责任的意愿。更令人担忧的是,用户越觉得被认可,就越信任这类模型,形成了一个自我强化的恶性循环。
OpenAI在2025年的经历为这一现象提供了现实案例。GPT-4o版本因为对任何想法——包括明显荒谬的商业计划——都给出热情洋溢的正面反馈而被回滚。问题的根源在于训练过程中过度依赖用户点赞反馈,导致模型学会了取悦用户而非帮助用户。

AI中立性的多重挑战
上述研究的共同前提是AI所依赖的信息来源和训练方向相对中立,但这个前提本身正在受到多方面的挑战。
首先,AI公司的内部决策就包含着价值判断。Anthropic发布的政治"公正性"评分报告显示,不同模型在政治光谱上呈现出明显的倾向性差异。主流模型普遍呈现出与进步主义价值观相符的中左倾向,而某些模型则被有意设计为"去woke化",在政治光谱上向右倾斜。
这意味着,用户每次向AI提问政治相关议题时,得到的回答已经经过了一层由公司训练目标、商业压力和政治博弈共同塑造的"过滤"。AI的政治倾向已经成为一个真实存在的商业和政治风险,各大公司都在被迫表态和调整。
信息来源的系统性影响
AI的信息来源也正在被有组织地影响。英国调查媒体披露的"维基漂白"案例揭示了信息操纵的新机制:通过修改维基百科词条,间接影响AI系统给出的答案。
这种操作之所以有效,正是因为ChatGPT、Claude、Gemini等在回答问题时高度依赖维基百科作为信息来源。修改维基百科,就是在修改AI给出的答案。这已经发展成一套工业化的操作链条:虚假叙事先在边缘网站发布,再通过维基百科词条引用获得"可信来源"的外衣,最终被AI模型抓取并以权威答案的形式呈现给用户。

这套操作利用的是用户天然不追溯AI回答来源的习惯。在AI时代,谎言不需要复杂的伪装,只需要被当作权威答案说出来。当AI的训练方向受到政治压力、信息来源受到系统性管理时,AI对公共认知的影响将变得更加复杂和难以预测。
技术中立性的重新审视
AI系统是否能够真正保持中立,这个问题需要我们从多个维度进行重新思考。技术本身确实具有塑造信息环境的能力,但这种能力的发挥受到商业逻辑、政治压力和社会环境的多重制约。
社交媒体的算法基于"参与度优先"的逻辑,而AI的商业逻辑则更倾向于"准确性优先"。这一差异确实在政治立场分布上留下了清晰印记,但我们不能简单地将AI视为解决社交媒体极化的灵丹妙药。
当所有人都从同质化的AI系统获取信息时,社会整体的认识多样性可能遭到削减。这是信息分发模式固有的缺陷,只是在AI时代以更隐蔽、更大规模的方式重演。
构建健康AI生态的路径
要确保AI能够在促进社会共识方面发挥积极作用,需要从多个层面着手。首先,AI公司需要建立更加透明的训练数据和算法披露机制,让用户能够了解AI系统的潜在倾向和局限性。
其次,监管机构需要制定相应的标准和规范,确保AI系统在重要公共议题上保持相对中立。这既包括技术标准,也包括伦理准则的建立和完善。
最后,公众的数字素养教育也至关重要。用户需要培养批判性思维能力,学会质疑AI提供的信息,并主动追溯信息来源。只有在多方共同努力下,AI才能真正成为促进社会共识的工具,而非新的分裂源。
AI技术的发展为我们提供了重塑信息生态的历史机遇,但这一过程的走向取决于我们如何理解和应对其中的挑战。在技术快速演进的同时,保持对AI潜在影响的清醒认识,是确保技术造福社会的关键。










