有偏见的人工智能系统是否会损害您的业务 以及社会本身
当我们谈论不值得信任的人工智能时,我们并不意味着巨大的机器人法西斯主义者 - 无论如何不是在未来几年。相反,最近的新闻报道引起了人们普遍的怀疑,即人工智能可能带有预先加载的,根深蒂固的偏见作为其性格的一部分。一个例子可能是,去年,亚马逊在发现它正在应用性别歧视偏见后不得不废弃基于人工智能的招聘工具。由于公平的数字量子中不可忽视的不平衡,遵循这个想法到极致和个人自由的终结,生活标准的破坏和更糟糕的可能即将到来。
但这究竟是怎么回事?坦率地说,我们这些有一点历史观点的人,以及对“人工智能”真正含义的一些概念,对于几乎不在研究实验室之外的观念的恐慌,大多不相信。
让我们看看另一个众所周知的例子。存储和分析专家Teradata的首席技术官斯蒂芬·布罗布斯特(Stephen Brobst)就是那些指出亚马逊2015年美国同日交付试验是如何进行人工智能偏见的经典研究的人之一。很容易理解为什么:当新服务首次在亚特兰大的扩展郊区进行试验时,使用了一种算法来确定试验中将涵盖哪些区域。由此产生的地图几乎不可思议地与白色区域相对应,而大多数黑色邮政编码没有看到。
毋庸置疑,亚马逊的选择标准并不排除黑人;计算机的决定完全取决于购买习惯。然而,正如Brobst所指出的,这种影响在功能上与种族偏见无法区分。它提出了一个问题:如果人工智能培训师选择与种族和社会地位相关的购买习惯,他们是否是种族主义者?
熟悉AI的读者可能已经在这个阶段大声抨击。让我们回顾并评估本世纪的事物状况。要理解的第一点是“人工智能”是一个糟糕的标签,尤其是因为它不精确。人工智能的总体思想中至少有两种不同的架构,即专家系统和机器学习。主流报道可以自由地混合两者,并且忽略了这样一个事实,即在主流意义上它们都不具备“智能”的条件。
相反,相当多的AI完全是确定性的。标记为“AI”的项目经常只会非常迅速地反复预先规定的规则,不作任何判断并且不会添加任何洞察力。然而,局外人可能无法认识到这就是正在发生的事情。事实上,许多人喜欢人工智能的想法,部分原因在于它让他们觉得对困难或有争议的决策的责任可以移交给机器。
事实上,当“AI”受到指责时,真正的问题总是与算法的细节或输入有关。将不良后果描绘成反映公司董事会成员的道德失误可能会感觉很好,但这并不公平。
不幸的是,在一个几乎没有人觉得需要区分不同类型的人工智能的文化中,或者为了证明某个特定过程如何算作人工智能,这很难说服投诉人你的人工智能不对出现的内容负责。是内在的偏见。正如我所指出的那样,人类的自然诱惑是以另一种方式扭转局面,并责怪机器而不是人员。
谁真的应该受到责备?
如果你去寻找有偏见的知情回答,你会发现一些有趣的事情。例如,IBM制作了大量有关人工智能偏见潜在危险的视频和出版物。专注于公平和信任等观念,并确保人工智能“与我们的价值观一致”,但最终技术巨头承认 - 就目前的情况而言 - 人类的偏见很可能会进入AI算法。因此,正如资深项目经理Rattan Whig在一篇广泛的博客文章中所讨论的那样,机器学习AI的空白板块无法反映其培训师的认知模式。
让我们明确一点:99%的时间,我们甚至没有处理空白的事件。很少有企业对那种在黑匣子中训练的人工智能有任何用处,从处女的优雅状态开始。潜在地,这些系统可能经过培训,通过每天盯着数百万帧视频来发现制造过程中的缺陷,运用智能的方式与线虫可以通过使用网络的生活方式完成相同的方式。 100个神经元作为“大脑”。
这些系统不做的,不仅仅是线虫蠕虫可以做的,是在客户组合中发现不良信用行为,或者识别表现不佳的股票。这是另一种人工智能的范畴,是那种经过精心设计和长期开发周期的人 - 由老式人类编纂自己的知识。因此,当误解和偏见融入过程时,这并不奇怪。
我已尽最大努力将AI专家常犯的错误压缩到我能管理的最短,最不尊重的总结中。但我还没有完成,因为我也想谈论超越。
我的意思是,AI技术的表现方式与实际存在的差距有多大。如果我们想要有意义地将AI归咎于任何事情,我们必须争辩说它已经掌握了它正在筛选的数据的基本含义。想想一个广告系统,它监控您搜索的内容并提供符合这些条款的广告;这可能看起来很聪明,但实际上它只是愚蠢的令牌匹配。计算机不知道诸如“橄榄球套件”或“斯旺西门票”之类的词语本身就意味着什么。
有一天我们会到达那里,但这是一条漫长的道路。而且,这不是一条铺有温和增量软件版本的道路:它将需要不止一个基本的,世界震撼的突破。
请记住,“理解”不仅仅是能够在数据库中查找单词并枚举其内涵和连接。如果我们真的希望人工智能没有偏见,那么它需要能够识别并消除其输入中的偏差。检测深度和微妙的东西将需要一台与人类大脑具有相同符号的机器,并且速度更快。现在没有类似的东西:说实话,我怀疑在我们击败全球变暖之前我们会看到这样的事情。
那你该怎么办?
所有这些看起来都非常抽象和学术性,但对于你作为一个技术商业“影响者”来说,这实际上是个好消息。因为结果是偏见问题比危言耸听的新闻报道更加简单和易于理解。你不需要担心恶意AI的难以理解的数字思维中发生了什么。
实际上,这个问题归结为程序员,以及关键词库等事物的来源 - 你可以对其产生意见的事情,如果你认为他们正在指导你走向错误的方向,则会直接影响。无论如何,放纵一个有偏见的人工智能并不符合你的利益:企业是赚钱的引擎,其性质的偏见不必要地排除市场部门。
不幸的是,一个邪恶的人工智能的愚蠢想法成为头条新闻,而互联网的速度意味着当出现偏见的发生时,抗议和愤怒可以比实施,测试和部署修复更容易传播。这些都不能帮助任何人就他们应该使用什么类型的AI或学习数据库做出明智和有用的选择,或者他们应该采取什么步骤来提高其准确性和实用性。
也许前进的方向是让抗议者转向审计员:如果我们能让媒体停止懒散地混淆和混淆人工智能的想法,那些对看似有偏见的人工智能的弊端表示愤慨的人可能会开始意识到这种不正常的结果如何应验。然后,他们可以成为解决方案的一部分,帮助发现和记录糟糕的节目或不良数据的实例 - 我们所有人,无论是企业还是整个社会,都将从中受益。