斯坦福大学的研究所确保人工智能代表人类缺乏多样性
斯坦福大学建立的一个研究所解决人工智能可能不代表整个人类的问题,缺乏多样性。
人类中心人工智能研究所的目标令人钦佩,但它主要由白人男性组成的事实使人怀疑其确保充分代表性的能力。
网络安全专家Chad Loder 注意到,斯坦福大学新任人工智能系统中没有一个成员是黑人。科技网站Gizmodo向斯坦福大学伸出援手,该大学迅速加入了哲学助理教授Juliana Bidadanure。
该研究所的部分问题可能是它试图解决的问题 - 虽然在改进的同时,基于STEM的职业仍然缺乏多样性。随着人工智能等革命性技术的出现,社会的一些部分面临着落后的危险。
该研究所得到了一些重要人物的支持。比尔盖茨和加文纽森等人都承诺支持“人工智能的创造者和设计者必须具有广泛的人性代表性”。
战斗算法偏差
斯坦福大学并不是唯一一个与算法中的偏见作斗争的机构。
本周早些时候,AI News 报道了英国政府发起的调查,以确定可能影响人们生活的算法偏差水平。
由数据伦理与创新中心(CDEI)进行的调查将侧重于人工智能具有巨大潜力的领域 - 如警务,招聘和金融服务 - 但如果没有正确实施,将对生命产生严重的负面影响。
与此同时,来自算法正义联盟的Joy Buolamwini等积极分子正在尽自己的努力来提高人们对人工智能构成偏见的危险性的认识。
在今年早些时候的一次演讲中,Buolamwini分析了当前流行的面部识别算法,发现准确性存在严重差异 - 特别是在识别黑人女性时。
想象一下监视与这些算法一起使用。在大多数情况下,皮肤较浅的男性会被识别,但皮肤较黑的女性会被更频繁地误停。我们面临着自动化分析的严重危险。
正在做出一些努力来创建AI,这些AI可以检测到其他算法中的无意识偏差 - 但是这些发展的早期阶段,他们还需要不同的创作者。
然而,它被解决了,算法偏见需要被消除,然后才会在社会领域被采用,否则会对个人产生负面影响。