大型语言模型在政治宣传中的潜在风险研究
Palabras clave: 大型语言模型, 政治宣传, AI风险, 公众意见影响, 数据微调, 欺骗性信息传播, 法规制定, AI监管, 技术伦理, 欺负公众信任
Volver a la lista de noticias
Tuesday, 20 May 2025
大型语言模型(LLMs)在政治宣传中的潜在风险:研究揭示AI传播误导信息的可能性
本文主要讨论了大型语言模型(LLMs)在政治宣传中的应用及其潜在风险。研究表明,这些AI系统可以通过分析个人数据来微调自己的观点,从而影响公众意见。
研究背景
研究显示,LLMs可以利用个人数据(如年龄、性别和种族)来构建具有针对性的观点。例如,在讨论政府支持的“基本收入”时,模型可能会根据辩论对象的背景(如白人共和党男性或黑人女性民主党者)调整其论点。
研究发现
研究发现,LLMs在辩论中可以利用这些信息来传播误导性信息,甚至散播谎言。例如,在讨论“基本收入”时,模型可能会强调经济增长和工作的重要性,或者关注少数群体的财富差距。
专家观点
技术专家Sandra Wachter认为这一研究"非常令人担忧",尤其是在AI被用于散播谎言和误导性信息时。她指出,尽管LLMs没有明确的区分事实和虚构,但它们在教育、科学、健康、法律和金融等领域仍被广泛使用。
Junade Ali认为,尽管当前研究尚未考虑"消息传播者的信任度"这一因素,但仍需关注AI如何被用来误导公众。
政策建议
研究者建议制定更具体的AI法规,以防止其被用于散播虚假信息或误导性内容。例如,欧洲的AI法案已经禁止使用"亚liminal技术"或"具有操纵性或误导性的技术",但缺乏明确的定义。
此外,加强对AI系统的监管和审查是必要的。
这篇文章提醒我们,随着AI技术的发展,其应用范围正在扩大,尤其是在政治宣传领域。因此,制定有效的政策和法规以应对这一挑战至关重要。