如何避免AI实施中的偏见 你知道吗
在大多数圈子中,“偏见”一词具有明显的负面含义。关于媒体,这意味着新闻倾向于某种方式。在科学中,这意味着先入为主的观念导致了不准确的结论。当谈到人工智能时,对软件进行编程的人的偏见 - 以及从中学习的数据 - 会导致不满意的结果。
任何偏见都是在收集,分析或解释数据时与现实的偏差。无论是否有意,大多数人对他们如何看待世界有一些偏见,这会影响他们对数据的解释。由于技术在从就业到刑事司法的各个方面发挥着越来越重要的作用,因此有偏见的人工智能系统可以产生重大影
在人类可以信任机器来学习和解释它们周围的世界之前,我们必须消除AI系统从中学习的数据中的偏见。以下是在实施自己的AI解决方案时如何避免这种偏见。
1.从一个高度多元化的团队开始。
任何AI系统的深度学习模型都将受到其背后团队的集体经验的限制。如果该团队是孤立的,系统将根据高度不准确的模型做出判断和预测。对于Adam Kalai来说,他是“男人是计算机程序员,女人是家庭主妇”的合着者。消除词语嵌入,“ 消除AI中的偏见就像抚养孩子一样。无论好坏,婴儿 - 或人工智能系统 - 都会想到你如何教它思考。它还需要一个村庄。因此,组建一个高度多样化的团队来领导您的AI工作。您将更有可能更早,更准确地识别细微差别。
为了减少组建团队时的招聘偏差,请检查招聘广告的语言并删除有偏见的措辞。例如,“忍者”这个词似乎可以让你的工作更具吸引力。然而,它可以阻止女性申请,因为 社会认为这个词是男性化的。另一种策略是减少工作要求的数量,将其列为首选资格。这同样会鼓励更多的女性候选人申请 - 不是因为他们没有这样的证书,而是因为除非他们拥有所有这些证书,否则他们往往不会申请。最后,创建标准面试问题和面试后情况汇报流程,以确保贵公司的所有面试官在评估求职者时都在同一框架内工作。
2.让您的多元化团队教您的聊天机器人。
与人类一样,当机器人拥有更多数据和经验时,他们会做出更明智的选择。“为聊天机器人收集足够的数据以做出正确的决定。自动化代理商应该不断学习和适应,但只有在获得正确数据的情况下才能做到这一点,“ Linc Global首席执行官兼联合创始人方诚说。聊天机器人通过研究以前的对话来学习,因此您的团队应该提供您的机器人数据,教导它以您希望的方式做出响应。例如,瑞典银行SEB 甚至教会其虚拟助手Aida检测呼叫者语音中的沮丧语气,此时机器人知道将呼叫者传递给人类代表。
为了完成类似的事情而不会成为偏见的牺牲品,您可能需要创建数据集,为您的机器人提供来自多个人口统计数据的示例。制定流程来检测问题。无论您是使用自动化平台还是手动查看客户对话,都可以在客户聊天中搜索模式。在打电话询问特定问题时,客户是否选择了人类代表或更加沮丧?某些客户角色会更频繁地被挫败吗?您的聊天机器人可能会错误处理或误解某种类型的客户问题 - 或某种类型客户的疑虑。一旦您在沮丧的客户查询中识别出共同的线索,您就可以为您的AI提供正确的课程所需的信息。
3.向世界展示你的AI如何思考。
在建立人们可以信任的人工智能系统时,透明度可能与多样性同样重要。目前没有关于受AI算法决策制约的消费者权利的法律。至少公司可以做的是与消费者完全透明为什么做出决定。尽管存在共同的行业担忧,但这并不意味着披露人工智能背后的代码。
只需提供系统用于做出决策的标准。例如,如果系统拒绝信用申请,请说明拒绝哪些因素以及消费者可以采取哪些措施来提高他们下次获得资格的机会。IBM推出了一项软件服务,可以查找AI系统中的偏差,并确定自动决策的原因。这样的工具可以帮助您实现透明度。
羞辱公司人工智能计划的可能性是一个真正令人担忧的问题。幸运的是,有很多方法可以扩展AI源数据的多样性,并消除重大偏差。通过消除偏见,您将帮助您的公司 - 以及社会 - 真正实现AI提供的好处。