人工智能可以帮助人类应对许多挑战 但同时也会带来挑战
我们知道AI有偏见。我们知道这很复杂。我们了解到,AI始终可能会或可能不会得出公平和道德的结论。但是很明显,无论如何,AI都会发生。
物理学家斯蒂芬·霍金(Stephen Hawking)说,人工智能是一个主要问题。他评论说:“成功创建有效的AI可能是我们文明历史上最大的事件。或最坏的情况。”
因此,问题是:我们是否在这项技术的软性方面花费了足够的时间和精力?
随着政府和企业寻求AI,热像仪和扫描仪等技术来解决市民和工作场所的安全问题,有关AI道德规范的问题现在特别重要。此类对话通常围绕AI公平性,预期用途,潜在滥用,隐私隐患,工人流离失所和产品准确性展开。
复杂性使得很难验证公平性。
人工智能的一个被吹捧的好处是它可以消除人为的偏见,从而可以做出更“公平的决定”。但是经验证明,AI的努力并非始终如愿以偿。
2014年,亚马逊开始尝试使用AI进行招聘。它使用其软件开发人员的内部数据库训练了一个AI系统,其中大多数是男性。该系统通过过滤掉女性候选人来做出回应。而且,在2018年,亚马逊表示将取消招聘工具。
挑战可能是AI是如此复杂,以至于开发人员不知道AI是如何得出结论的。这可能会使人们更难验证AI是否已达成“公平”或“道德”决定。
预期的使用和潜在的滥用需要认真考虑。
基本前提是AI应该做好。什么时候不好?当其预期用途改变时。Google可能是最明显的例子,说明为什么定义预期用途很重要。
2018年,谷歌赢得了美国国防部(DoD)的一项重要合同,以分析无人机的视频镜头。但是一些Google员工不想参加战争。3,000多名员工给公司首席执行官签署了一封信,敦促他放弃该项目。Google领导层做出回应,决定不续约(合同生效)政府合同,并发布有关它将支持和不支持的AI使用类型的指南。
最近,Clearview AI成为有关潜在滥用的对话的一部分。该公司为执法部门提供面部识别技术。它可以捕获图像并找到被拍照者的公开信息,据报道这些信息来自Facebook,YouTube和其他网站。这样可以提供有关人的很多信息,包括他们的当前位置。
从执法角度来看,此举的目的是抓捕罪犯。这是一种积极的预期用途–对人类有益。但是一旦拥有了该功能,您如何控制和监视它?因为如果该技术可以用来识别罪犯,那么掠夺者可以使用该解决方案来识别和定位妇女或儿童。