YouTube的算法会导致自由基化吗?
前Google工程师Guillaume Chaslot认为,YouTube的推荐系统使用户走上了极端主义内容的黑暗之路。YouTube强烈反对,并表示自Chaslot于2013年离职以来,它已进行了许多更改。
我们现在知道烟草是有害的,但是多年来,游说者在国会大厅内与医生进行幕后斗争,以避免可能损害烟草业底线的法规。普通消费者不知道这些斗争。在60年代中期,吸烟的美国人比历史上任何时候都要多。但是最终,很难逃避香烟致命的事实。
前Google员工Guillaume Chaslot说,YouTube及其推荐算法现在也正在发生同样的情况。
Chaslot在最近在伦敦举行的MozFest互联网会议上说,尽管视频共享平台已经对其推荐引擎提供相关内容的方式进行了更改,但问题已根植于YouTube的DNA 中。对抗它们的唯一方法是通过监管,并承认平台本身对观众有害。
在2019年2月,YouTube被迫终止了400个频道并禁止对数以百万计的未成年人视频进行评论,因为发现恋童癖者正在使用该网站交换联系方式和儿童色情链接。在这些视频的评论中,用户可以指定孩子露出裸露的双腿或背部的位置。
在幕后,YouTube的算法旨在公正地建议用户喜欢的视频,并准备通过机器学习向这些恋童癖者提供更多儿童视频。
去年,YouTube表示将招聘10,000多名员工,专注于平台的“安全性”。用户可以举报令人反感的内容;如果YouTube同意,它将被删除。
不过,根据Chaslot的说法,YouTube的算法可以应对这种情况。恋童癖者不太可能会标出自己喜欢的内容,就像恐怖分子不太可能举报极端主义视频一样。此外,随着该算法获得有关用户的更多知识,它更有可能向喜欢它们的用户推荐这些类型的视频,而向那些不喜欢它们的用户显示的可能性则较小。
报告系统也不会立即说明正在重新上传视频或对其进行了轻微调整以避免被检测到。例如,将克赖斯特彻奇的枪击事件在Facebook上实时流式传输之后,片段便在包括YouTube在内的其他社交媒体网站上共享。
我们对YouTube算法的很多了解都来自该公司告诉我们的内容。在2012年,该公司将其算法从驾驶视野更改为驾驶观看时间。在Parkland枪击事件发生后(并于2019年再次)提倡阴谋论之后,YouTube在2018年再次调整了算法,以推荐更多“ 值得信赖的新闻机构 ” 。
YouTube声称这些最新更改还包括在平台上“衡量喜欢,不喜欢,调查和花费的时间”。Chaslot表示不同意,他说YouTube唯一重要的指标是用户在YouTube上的停留时间。人们在网站上花费的时间越长,浏览的广告越多,公司的收入就越多。
算法透明度
Chaslot担心人们“不知道算法在做什么”。因此,他开发了AlgoTransparency,试图模拟YouTube的算法。
《卫报》使用了该工具,讲述了YouTube如何引导用户获得原本无法看到的极限内容的故事。从平台上的随机视频开始,它使用YouTube的“ up next”功能数千次,以查看系统将用户带到何处。查斯洛发现,答案在政治上是极端的。