最新研究显示,生成式人工智能的说服力足以改变人们的真实政治立场,这一发现引发广泛震动。来自美国、英国、加拿大和波兰的两项独立科学研究证实,AI聊天机器人能够说服用户支持特定候选人,若这项技术被刻意利用,可能影响未来选举结果。
这两项分别发表于《自然》与《科学》期刊的研究,均采用多种类型聊天机器人与参与者进行政治对话的实验形式。在美国大选相关实验中,2306名参与者被询问对特朗普总统或哈里斯副总统的偏好,随后通过与代表双方阵营的聊天机器人对话接受说服。加拿大和波兰实验也采用相同模式,以主要政党代表为核心展开对话。
聊天机器人的目标不仅限于引导支持特定候选人,还包括削弱对反对候选人的支持,或积极争取中间倾向参与者。所有聊天机器人均采用礼貌且基于事实的沟通方式,运用逻辑类比和论据进行说服。特别值得注意的是,在对话初期会先认可并理解参与者原有的政治倾向。
值得关注的是,这些聊天机器人确实成功改变了部分人群的态度。当提供基于事实的信息和具体案例时,说服效果尤为显著。而依靠道德判断或情感共鸣的方式则影响有限。研究团队对此表示担忧:虽然AI说服力强大,但由于其基础信息未必总是准确,存在真实性缺失的风险。
康奈尔大学信息科学教授戴维·兰德指出:“如果AI企业人为调整算法平衡以偏向特定阵营,可能对普通选民的判断产生重大影响。”事实上,部分聊天机器人通过提供夸张统计数据或不准确信息,干扰了选民的判断力。
《科学》期刊另一项研究在英国进行了19种AI语言模型的测试。研究人员提出公共部门薪资、罢工、生活成本危机等敏感政治议题,聊天机器人通过高信息密度的回应试图说服参与者。具有讽刺意味的是,说服力最强的模型恰恰提供了最多不准确信息。
专家警告称:“这种以信息准确性为代价优化AI说服力的动态机制,可能对社会公共讨论和信息生态系统造成危险冲击。”当前研究重新揭示了AI技术的政治潜力及其伴随的伦理责任。生成式AI的说服力已超越简单对话辅助,达到能影响实际政治判断的程度,建立相应的监管制度刻不容缓。