为什么负责任的人工智能开发需要安全合作
人工智能2020-03-23 16:01:12
导读重要的是要确保公司的经济利益是建立和发布安全,安全和对社会有益的AI系统。即使我们认为人工智能公司及其员工有这样做的独立愿望也是如此
重要的是要确保公司的经济利益是建立和发布安全,安全和对社会有益的AI系统。即使我们认为人工智能公司及其员工有这样做的独立愿望也是如此,因为如果人工智能公司的经济利益与负责任地建立系统的愿望不紧张,人工智能系统更有可能是安全和有益的。
这种说法似乎是多余的,因为开发和部署不会对社会构成风险的产品通常符合公司的经济利益。例如,人们不会为没有刹车的汽车付出太多代价。但是,如果多家公司正在尝试开发类似的产品,他们可能会感到有压力将其推向市场,从而减少了发布前的安全工作。
这些问题通常出现在外部监管薄弱或根本不存在的情况下。对市场上提供的商品和服务进行适当的监管可以减少安全问题。这可以使商品和服务的用户以及行业本身受益 - 例如,航空业从商业上受益于世界各国政府对安全保持警惕,并且当事件发生时,他们总是受到调查详细地。然而,由于技术发展的速度以及开发商和监管机构之间的大量信息不对称,传统的监管机制在处理人工智能方面可能效果较差。我们的论文探讨了哪些因素可能推动或抑制如此急于部署,并提出了改善AI开发人员之间合作的策略。
安全集体行动的必要性
如果公司通过在技术被认为安全之前将技术推向市场来应对竞争压力,那么他们将发现自己处于集体行动问题中。即使每家公司都倾向于竞争开发和发布安全的系统,许多人认为他们无法负担这样做,因为他们可能会被其他公司打败。通过加强行业安全合作可以缓解这样的问题。人工智能公司可以制定行业规范和标准,确保系统只有在安全的情况下才能开发和发布,并且可以同意在开发过程中投入资源安全并在发布前满足适当的标准。
免责声明:本文由用户上传,如有侵权请联系删除!