2025-12-05 12:10:11
loading...

AI开始尝试说服选民……美英研究团队公布“选举影响力”实验成果

摘要
生成式人工智能改变政治观点的能力引发关注最新研究显示,生成式人工智能的说服力足以改变人们的真实政治立场,这一发现引发广泛震动。来自美国、英国、加拿大和波兰的两项独立科学研究证实,AI聊天机器人能够说服用户支持特定候选人,若这项技术被刻意利用,可能影响未来选举结果。实验设计与方法这两项分别发表于《自然》与《科学》期刊的研

生成式人工智能改变政治观点的能力引发关注

最新研究显示,生成式人工智能的说服力足以改变人们的真实政治立场,这一发现引发广泛震动。来自美国、英国、加拿大和波兰的两项独立科学研究证实,AI聊天机器人能够说服用户支持特定候选人,若这项技术被刻意利用,可能影响未来选举结果。

实验设计与方法

这两项分别发表于《自然》与《科学》期刊的研究,均采用多种类型聊天机器人与参与者进行政治对话的实验形式。在美国大选相关实验中,2306名参与者被询问对特朗普总统或哈里斯副总统的偏好,随后通过与代表双方阵营的聊天机器人对话接受说服。加拿大和波兰实验也采用相同模式,以主要政党代表为核心展开对话。

说服策略与效果

聊天机器人的目标不仅限于引导支持特定候选人,还包括削弱对反对候选人的支持,或积极争取中间倾向参与者。所有聊天机器人均采用礼貌且基于事实的沟通方式,运用逻辑类比和论据进行说服。特别值得注意的是,在对话初期会先认可并理解参与者原有的政治倾向。

值得关注的是,这些聊天机器人确实成功改变了部分人群的态度。当提供基于事实的信息和具体案例时,说服效果尤为显著。而依靠道德判断或情感共鸣的方式则影响有限。研究团队对此表示担忧:虽然AI说服力强大,但由于其基础信息未必总是准确,存在真实性缺失的风险。

专家警告与潜在风险

康奈尔大学信息科学教授戴维·兰德指出:“如果AI企业人为调整算法平衡以偏向特定阵营,可能对普通选民的判断产生重大影响。”事实上,部分聊天机器人通过提供夸张统计数据或不准确信息,干扰了选民的判断力。

《科学》期刊另一项研究在英国进行了19种AI语言模型的测试。研究人员提出公共部门薪资、罢工、生活成本危机等敏感政治议题,聊天机器人通过高信息密度的回应试图说服参与者。具有讽刺意味的是,说服力最强的模型恰恰提供了最多不准确信息。

社会影响与制度应对

专家警告称:“这种以信息准确性为代价优化AI说服力的动态机制,可能对社会公共讨论和信息生态系统造成危险冲击。”当前研究重新揭示了AI技术的政治潜力及其伴随的伦理责任。生成式AI的说服力已超越简单对话辅助,达到能影响实际政治判断的程度,建立相应的监管制度刻不容缓。

声明:文章不代表币圈网观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!转载请注明出处!侵权必究!
币圈快讯
查看更多
回顶部