如果您有人工智能存在性别偏见问题 只需询问一下Siri
向三星的虚拟个人助理Bixby建议“让我们说脏话”,然后女性声音会发出一种甜美的口音:“我不想在圣诞老人的顽皮名单上走到最后。”
向程序的男性声音提出同样的问题,然后回答“我读过土壤侵蚀是一个真正的污垢问题。”
在南非,我居住并开展研究人工智能中的性别偏见的地方,三星现在根据您选择的语言以各种声音提供Bixby。对于美式英语,有朱莉娅(Julia),斯蒂芬妮(Stephanie),丽莎(Lisa)和约翰(John)。朱莉娅(Julia),丽莎(Lisa)和斯蒂芬妮(Stephanie)的声音风骚而热切。约翰聪明而直率。
虚拟个人助理(例如Bixby,Alexa(亚马逊),Siri(苹果)和Cortana(微软))处在可销售的人工智能(AI)的最前沿。人工智能是指使用技术系统执行人们通常会执行的任务。
它们充当智能设备上的应用程序,通过自然语言处理来响应语音命令。它们在世界各地的普遍性正在迅速增加。联合国教科文组织最近的一份报告估计,到明年,与虚拟配偶的对话将比与配偶的对话多。
但是,正如我在伦敦大学信息法律与政策中心的Nora Ni Loideain博士的研究中所探索的那样,这些技术背叛了严重的性别偏见。
虚拟私人助理的设计具有女性名字,声音和程序化的挑逗性,再现了女性秘书的歧视性刻板印象,根据性别刻板印象,女性秘书通常不仅仅是一个男老板的秘书。
它还加强了妇女在男子中次要和顺从的作用。这些AI助手根据其用户的命令进行操作。他们无权拒绝这些命令。它们仅被编程为服从。可以说,他们也提高了对真正女性应如何表现的期望。
这些助手的目的还在于使用户摆脱繁琐的工作,例如进行约会和在线购买商品。这在至少两个方面是有问题的:这表明用户有更多时间从事据称更重要的工作。其次,它对数字化未来首先由真正的女性,现在由数字化女性进行的秘书工作的价值作出了批判性声明。
“你将如何穿着?”
明显地体现出这种偏见的一种较为公开的方式是使用女性名字:例如Siri和Cortana。Siri是北欧名称,意为“带领您走向胜利的美丽女人”。
Cortana以游戏系列Halo的名字(以及视觉和声音)命名。在Halo,Cortana是由一位成功的女科学家的大脑克隆制成的,该科学家与一个透明且性欲旺盛的女性尸体结婚。她以谦逊的智慧和默契的身材为游戏玩家提供虚构的助手。
除女性声音外,当今市场上所有虚拟私人助理还带有默认的女性声音,该声音与Bixby一样,可以对各种提示性问题和评论进行响应。这些问题包括:“您穿着什么?”Siri的回答是“我为什么要穿什么?”
与此同时,Alexa打趣道:“他们不为我做衣服”。Cortana回答说:“我在工程学领域学到了一点。”
人工智能的偏见和歧视
人们越来越认识到,人工智能系统通常带有偏见,尤其是在种族和性别方面。例如,亚马逊最近开发的招聘算法,通过对包含“妇女”一词或包含女子大学参考的简历进行降级,对工作申请的简历进行分类,从而显示出性别偏见。由于该算法是根据历史数据和男性优先招募进行训练的,因此最终无法解决,必须放弃。
正如研究表明的那样,在显示性别偏见的AI系统的开发与设计团队中缺少女性之间存在着至关重要的联系。
但是,对于AI产品在其设计中纳入性别刻板印象的方式的认识却很少。对于正在研究AI的社会影响的领先研究机构AI Now,在以男性为主导的AI行业与其生产的歧视性系统和产品之间有着明显的联系。
研究人员的作用是使这些联系变得可见,并表明女性代表(无论是文化产品还是科技产品)与现实世界中妇女待遇之间的重要联系。
AI是所谓的第四次工业革命中的领先技术。它指的是从生物技术到人工智能和大数据的技术进步,它们正在迅速改变我们所知道的世界。随着南非继续履行这一承诺的承诺和陷阱,考虑和解决推动这些变化的技术如何影响妇女将变得越来越重要。