您可以信任您的人工智能吗
人工智能(AI)是当今时代最具变革性的技术之一。在技术开始征服世界之前,应预见并阐明安全风险和相关问题。这就是与AI安全相关的考虑至关重要的原因。
一旦出现新的创新,人们就会开始担心安全问题-有时为时已晚。看看从1980年代开始发展的网络开始的各种技术的进步。网络安全解决方案的增长始于1990年代。此后,个人计算机和防病毒软件时代开始于2000年代。后来,在2010年代出现了应用程序和应用程序安全热潮。至于人工智能,由于2010年代下半年是智能技术时代,因此在2020年代,我们很可能会看到对AI安全性的需求。
问题是,我们今天应该关心这个可能的未来。已经发生了许多重大事件,例如Tesla车祸,并且已经发布了数千篇研究论文。我最近发表了几篇技术文章,描述了为什么AI安全当前如此重要,但让我们看一下在计划和法规领域已采取的不同步骤。蒙特利尔和多伦多已成为人工智能研究的热点地区。加拿大对道德的关注很快导致了一些最早的国际AI道德原则。在加拿大高级研究所(CIFAR)的领导下,“泛加拿大人工智能战略”于2017年3月22日发布。
接下来是日本。2017年3月31日,日本在其“人工智能技术战略”中主要关注人工智能开发的文化和社会方面,并且将安全性列为生产力,健康和移动性四个优先领域之一。
人工智能安全举措
2019年第一季度在美国和欧盟启动了许多AI安全计划:
2019年2月2日:“安全,有保障的智能学习系统(SAILS)和人工智能木马(TrojAI)”(美国)
2019年2月6日:“保证AI对欺骗的鲁棒性(GARD)”(美国)
2019年2月:“恶意使用人工智能:预测,预防和缓解”(美国)
2019年4月4日:“可信人工智能的道德准则”(欧盟)
2019年6月26日:“欧盟人工智能伦理准则:背景与实施”(欧盟)
这些文档考虑了用于创建可抵抗攻击的强大机器学习模型的理论,并研究了可能的AI威胁的情况以及预防或更好地减轻这些风险的方法。策略和治理的不同领域适用于AI及其实现,包括技术和数据保护。
预计到2020年和2021年,全球将发布AI安全文件。可以进行进一步的研究来分析新兴的AI安全解决方案和计划。除了了解AI安全计划外,我们还需要遵循实施建议,并对AI开发人员,网络安全专家和IT团队进行有关如何在组织中实施AI安全的培训,或采取诸如AI安全评估等更实际的步骤。
如上所述,倡议的数量正在增长,并且有望在未来增加更多。考虑到早期采用者已于2017年开始发布其战略,并准备在2019年仅两年后才显示有关AI的可信赖性和安全性的详细文件,因此我们可以预测,许多后来加入AI计划的国家将以同样的方式行事。