94%的IT领导者希望更加关注人工智能道德
SnapLogic的一项研究发现,英国和美国94%的IT决策者希望更加关注道德人工智能开发。
算法中的偏见仍然是一个问题,并且是社会采用的最大障碍之一。例如,已经发现面部识别算法对于社会的某些部分而言比其他部分准确得多。
如果不解决这些问题,我们就有可能实现种族貌相等问题的自动化。公众对人工智能的信任度已经很低,因此行业内的集体责任是确保高道德标准。
SnapLogic首席执行官Gaurav Dhillon评论道:
“人工智能是未来,它已经对企业和社会产生了重大影响。然而,正如许多这种规模的快速发展一样,它有可能被用于不道德,恶意或无意的目的。
我们都应该希望人工智能创新蓬勃发展,但我们必须管理潜在的风险并尽我们的努力确保人工智能以负责任的方式取得进步。“
SnapLogic的报告发现,超过一半(53%)的IT领导者认为道德人工智能开发的责任在于开发它的组织,无论他们是商业企业还是学术机构。
更不用说(17%)责怪个人开发人员从事AI项目。然而,美国的受访者比英国(9%)犯罪的可能性超过两倍(21%)。
一些全球性机构正在兴起,旨在建立人工智能标准和公平规则。可以理解的是,人们对AI在军事技术中的作用非常关注。中国,美国和俄罗斯等全球大国之间的所谓“人工智能军备竞赛”可能导致不负责任的事态发展,带来毁灭性后果。
然而,只有16%的受访者认为独立的全球财团 - 由政府,学术界,研究机构和企业的代表组成 - 是建立急需的标准,规则和协议的唯一途径。
IT领导者欢迎人工智能专家组,如欧盟委员会人工智能高级专家组。一半的受访者认为组织将接受这些团体的指导和建议。英国人几乎翻了一番(15%),因为他们认为组织会像美国同行那样忽视这些团体(9%)。
只有百分之五的英国IT领导者认为,如果没有法律强制执行,AI专家组的建议将毫无用处。
87%的受访者希望AI受到监管,尽管存在一些争论。32%的人认为应该来自政府和行业的组合,而25%的人希望建立一个独立的行业联盟。
基于行业的监管需求也存在差异。制造业中几乎五分之一(18%)的IT决策者反对这一规定,其次是“技术”部门的13%,以及“零售,分销和运输”部门的相同百分比。给出的理由接近于相信它会减缓创新的信念,以及开发应由开发人员自行决定。
“监管有其优点,可能需要,但应该谨慎实施,以保持数据访问和信息流,”Dhillon继续说道。“如果不这样,人工智能系统将根据不完整或错误的数据进行工作,从而阻碍未来人工智能创新的发展。”
人工智能将是革命性的 - 事实上,有些人称之为第四次工业革命。然而,作为一个伟大的虚构人曾经说过:“有了强大的力量,就会有很大的责任感。”