新的人工智能算法可以发现网上的喷子
包括印度裔研究人员在内的研究人员表示,新的(人工智能)算法可以在在线社交媒体对话发展的过程中对其进行监控,这可能会在未来形成一种有效的、自动化的方式来发现在线挑衅。预防网络骚扰需要快速发现攻击性、骚扰性和负面的社交媒体帖子,而这反过来又需要监控网络互动。目前获取此类社交媒体数据的方法要么是完全自动化的,无法解释,要么依赖于一组静态的关键字,这些关键字很快就会过时。
美国加州理工学院的Maya Srikanth认为,这两种方法都不是很有效。Srikanth说:“让人们手工完成这项工作是不可扩展的,这些人可能有偏见。”另一方面,关键字搜索受到在线对话发展速度的影响。新术语会突然冒出来,旧术语会改变意思,所以一个今天用得很真诚的关键词可能第二天就会被讽刺了。”这个团队,包括来自加州理工学院的Anima Anandkumar,使用了GloVe(单词表示的全球向量)模型,该模型使用机器学习算法来发现新的和相关的关键字。是人工智能的一种应用,提供系统自动学习和改进经验的能力,而不需要显式编程。GloVe是一个单词嵌入模型,意思是它表示a中的单词,其中两个单词之间的“距离”是衡量它们的语言或语义相似性的一个标准。从一个关键字开始,这个模型可以用来查找与该词密切相关的其他关键字,从而显示实际使用的相关术语的集群。例如,在Twitter上搜索“我也是”在对话中的使用,会产生一系列相关的标签,如“支持幸存者”、“ImWithHer”和“NotSilent”。这种方法为研究人员提供了一个动态的、不断发展的关键字集来进行搜索。然而,仅仅知道某段对话是否与感兴趣的话题相关是不够的;研究人员说,语境很重要。为此,GloVe会显示某些关键字的相关程度,并提供有关这些关键字使用情况的输入。例如,在一个专门讨论“厌女症”的在线论坛上,“女性”一词与“性”、“否定”等词联系紧密。在有关“我也是”运动的Twitter帖子中,“女性”一词更可能与“公司”、“欲望”和“受害者”联系在一起。研究人员说,这个项目是一个概念验证,目的是有朝一日让社交媒体平台有一个更强大的工具来发现在线骚扰。“人工智能研究领域正变得更加包容,但总是有人抗拒改变,”Anandkumar说。她说:“希望我们现在开发的工具能帮助我们在未来对抗各种骚扰。”这项研究于去年12月14日在加拿大温哥华举行的神经信息处理系统会议的人工智能社会公益研讨会上公布。