人工智能如何发现并创造假新闻
当马克·扎克伯格(Mark Zuckerberg)告诉国会,Facebook将使用人工智能来检测社交媒体网站上发布的假新闻时,他并没有具体说明这意味着什么。鉴于我自己使用图像和视频分析的工作,我建议这家公司应该小心。尽管存在一些基本的潜在缺陷,但人工智能可以成为发现网上宣传的有用工具——但它也可以惊人地擅长制造误导材料。
研究人员已经知道,网上假新闻比真实新闻传播得更快、更广。我的研究同样发现,在网上发布虚假医疗信息的帖子比发布准确医疗内容的帖子获得更多的浏览量、评论和点赞。在一个网络世界里,观众的注意力有限,内容选择太多,虚假信息往往对观众更有吸引力或更有吸引力。
这个问题变得越来越严重:到2022年,发达经济体的人们可能会遇到更多的假新闻,而不是真实的信息。这可能会导致一种被研究人员称为“现实眩晕”的现象——在这种现象中,计算机可以生成如此令人信服的内容,以至于普通人可能很难弄清楚什么是真实的。
机器学习算法,一种AI,几十年来一直在成功打击垃圾邮件,通过分析消息的文本和决定的可能性有多大,一个特定的消息是一个真正的沟通从一个实际的人,或者一个mass-distributed征集的药物或声称失散多年的财富。
基于这类针对垃圾邮件的文本分析,人工智能系统可以评估一篇文章的文本(或标题)与某人在网上分享的文章的实际内容的对比情况。另一种方法是检查类似的文章,看看其他新闻媒体是否有不同的事实。类似的系统可以识别传播假新闻的特定账户和来源网站。
然而,这些方法假设传播假新闻的人不会改变他们的方法。他们经常改变策略,操纵虚假帖子的内容,让它们看起来更真实。
使用人工智能评估信息也会暴露和放大社会中的某些偏见。这可能与性别、种族背景或邻里成见有关。它甚至可能产生政治后果,潜在地限制特定观点的表达。例如,YouTube已经切断了某些类型视频频道的广告,这让创作者损失了不少钱。
环境也是关键。单词的意思会随着时间而改变。在自由派和保守派的网站上,同一个词可以有不同的含义。例如,在一个更自由的网站上发布带有“维基解密”和“DNC”的帖子更可能是新闻,而在一个保守的网站上,它可能指的是一套特定的阴谋论。
然而,利用人工智能来检测假新闻的最大挑战在于,它让科技与自身展开了一场军备竞赛。机器学习系统已经证明诡异的创造能力被称之为“deepfakes”——照片和视频,实际取代一个人与另一个人的脸,让它出现,例如,一个名人被拍到在揭示姿势或公众人物说他实际上从未说。即使是智能手机应用也有这种替代功能——这使得这项技术可以应用于几乎所有人,即使没有好莱坞级别的视频编辑技能。
研究人员已经准备使用人工智能来识别这些人工智能制造的假货。例如,视频放大技术可以检测人类脉搏的变化,从而确定视频中的人是真实的还是电脑生成的。但是骗子和骗子探测器都会变得更好。有些假货可能会变得非常复杂,以至于很难反驳或驳斥它们——不像前几代假货,它们使用简单的语言,而且很容易反驳。
打击假新闻传播的最好方法可能是依靠人。假新闻的社会后果——更大的政治两极分化,更多的党派偏见,以及对主流媒体和政府的信任被侵蚀——是显著的。如果更多的人知道风险如此之高,他们可能会对信息更加谨慎,特别是如果它是基于情感的,因为这是一种吸引人们注意力的有效方式。
当有人看到一篇愤怒的帖子时,那个人会更好地调查信息,而不是立即分享它。分享的行为也给帖子增加了可信度:当其他人看到它时,他们会注册这是他们认识的人分享的,而且大概至少有一点信任,他们不太可能注意到原始来源是否有问题。
像YouTube和Facebook这样的社交媒体网站可以自行决定给它们的内容贴上标签,清楚地显示出一个声称是新闻的项目是否经过了有信誉的来源的验证。扎克伯格告诉国会,他希望动员Facebook用户的“社区”来指导公司的算法。Facebook可以进行众源验证。维基百科还提供了一个模型,由专门的志愿者跟踪和验证信息。
Facebook可以利用与新闻机构和志愿者的合作关系来训练人工智能,不断调整系统,以应对宣传人员在话题和策略上的变化。这并不会捕捉到网上发布的每一条新闻,但它会让很多人更容易分辨真假。这可以减少虚构和误导性的故事在网上流行的机会。
让人安心的是,接触过准确新闻的人更善于区分真实和虚假信息。关键是要确保人们在网上看到的东西至少有一部分是真实的。