如何阻止人工智能延续有害偏见
人工智能(AI)已经在以引人注目的方式重新配置世界。数据驱动着我们的全球数字生态系统,而人工智能技术揭示了数据中的模式。智能手机、智能家居和智能城市影响着我们的生活和互动方式,人工智能系统越来越多地参与到招聘决策、医疗诊断和司法判决中。这种情形是乌托邦式的还是反乌托邦式的,取决于你的视角。
人工智能的潜在风险被反复列举。杀人机器和大规模失业是人们普遍关注的问题,而有些人甚至担心人类会灭绝。更乐观的预测称,到2030年,人工智能将为世界经济增加15万亿美元,并最终引领我们走向某种社会天堂。
我们当然需要考虑这些技术对我们社会的影响。一个重要的担忧是,人工智能系统会强化现有的社会偏见,造成破坏性影响。这种现象的几个臭名昭著的例子已经得到了广泛的关注:最先进的自动机器翻译系统产生了性别歧视的输出,以及将黑人归类为大猩猩的图像识别系统。
出现这些问题是因为这些系统使用数学模型(如神经网络)来识别大组训练数据中的模式。如果这些数据以各种方式严重扭曲,那么其固有的偏见将不可避免地被训练有素的系统学习和复制。有偏见的自主技术是有问题的,因为它们可能使妇女、少数民族或老年人等群体边缘化,从而加剧现有的社会不平衡。
例如,如果人工智能系统针对警方逮捕数据进行训练,那么在现有的逮捕模式中出现的任何有意识或无意识的偏见,都将被针对这些数据进行训练的“预测性警务”人工智能系统复制。认识到这一严重影响,各权威机构最近建议,所有人工智能系统都应根据公正的数据进行培训。欧盟委员会(European Commission)在2019年初发布的道德指南提出了以下建议:
当收集数据时,它可能包含社会构建的偏见、不准确、错误和错误。这需要在使用任何给定的数据集进行培训之前进行处理。
这一切听起来都很合理。但不幸的是,有时根本不可能确保某些数据集在培训之前是无偏的。一个具体的例子应该能说明这一点。
所有最先进的机器翻译系统(如谷歌翻译)都是在句子对上训练的。一个英法系统使用数据将英语句子(“she is tall”)和等效的法语句子(“elle est grande”)联系起来。在给定的一组训练数据中可能有5亿个这样的配对,因此总共有10亿个单独的句子。所有与性别有关的偏见都需要从这类数据集中消除,如果我们想要防止由此产生的系统产生以下性别歧视输出:
该法语翻译是在2019年10月11日使用谷歌Translate生成的,它是错误的:“Ils”是法语中的阳性复数主语代词,尽管上下文清楚地表明女性被指。这是一个典型的例子,由于训练数据中的偏差,男性默认值被自动化系统选中。
一般来说,翻译数据集中70%的性别代词是阳性的,30%是阴性的。这是因为用于这些目的的文本更倾向于提及男性而不是女性。为了防止翻译系统复制这些现有的偏见,必须从数据中删除特定的句子对,这样,英语和法语两方的阳性和阴性代词都占50% / 50%。这将阻止系统为男性代词分配更高的概率。
当然,名词和形容词也需要达到50% / 50%的平衡,因为它们在两种语言中都可以表示性别(“actor”、“actress”、“neuf”、“neuve”)等等。但是这种大幅度的下采样必然会大大减少现有的训练数据,从而降低译文的质量。
即使得到的数据子集完全是性别平衡的,它仍然会以各种其他方式(如种族或年龄)被扭曲。事实上,很难完全消除所有这些偏见。如果一个人只花5秒钟来阅读训练数据中的10亿个句子中的每一个,那么他需要159年的时间来检查所有的句子——这是假设他愿意不分昼夜地工作,没有午休时间。
因此,在人工智能系统建立之前,要求所有训练数据集都是无偏的是不现实的。这种高级需求通常假定“AI”表示数学模型和算法方法的同构集群。
实际上,不同的人工智能任务需要非常不同类型的系统。淡化这种多样性的全部程度,掩盖了(比方说)严重扭曲的培训数据所带来的真正问题。这是令人遗憾的,因为这意味着对数据偏差问题的其他解决方案被忽视了。
例如,偏差在一个训练有素的机器翻译系统可以大大减少如果系统是适应更大的训练后,不可避免地有偏见,数据集。这可以通过使用更小的,更少的倾斜,数据集。大多数的数据可能会强烈的偏见,因此,但是不需要系统的训练。不幸的是,那些负责为人工智能研究制定指导方针和立法框架的人很少讨论这些技术。
如果人工智能系统只是加剧了现有的社会失衡,那么它们将阻碍而非促进积极的社会变革。如果我们每天使用的人工智能技术比我们的偏见要少得多,那么它们可以帮助我们认识和面对我们自己潜在的偏见。
这当然是我们应该努力的方向。因此,人工智能开发人员需要更仔细地考虑他们所构建的系统的社会后果,而那些写人工智能的人需要更详细地理解人工智能系统实际上是如何设计和构建的。因为如果我们真的在走向技术田园牧歌或世界末日,前者会更好。