人工智能的可解释性仍然是一个重要的课题
为了使AI发挥其潜能并在许多领域(尤其是影响人们的领域)中广泛部署,它需要克服黑匣子问题。如今,一个热门研究领域被称为可扩展AI(XAI),以通过可解释性,公平性和透明性增强AI学习模型。
前提是,一旦AI完全具备了功能,它将导致业界所设想的“负责任的AI”。
大多数机器学习模型不是很聪明。他们经过“训练”以识别模式和关系,但有时结果却很奇怪。在进行迭代时,他们尝试将各种参数与目标函数相关联(“是猫还是狗?”)。
XAI(可替代AI)的新兴研究
是的,数据的复杂性和对抗性扰动也会导致基于规则的系统中的错误预测或决策。但是在这种情况下,可以跟踪规则的执行方式。太多的计算无法在机器引导中实现。XAI的目标是提供对决策的后验分析,并提供消除数据和其他任务偏差的方法。
在AI的可解释性和可解释性的确切含义中,Meet Ghandi很好地总结了一下:
XAI有助于确保在进行决策时,训练数据集以及训练后的模型没有任何偏差。此外,XAI有助于调试学习模型,并引起人们对各种对抗性干扰的注意,这些干扰会导致错误的预测或决策。更重要的是,XAI将深入了解由学习模型建立的因果关系以及该模型的推理。应该注意的一件事是,通过使学习模型更加复杂,其可解释性降低,性能提高;因此,学习模型的性能和可解释性之间存在反比关系。
在提出XAI技术时,应将重点放在学习系统的目标用户上,以使学习系统对其用户值得信赖。另外,应考虑用户的隐私。因此,要在现实生活中使用AI,首先,我们需要通过解释AI的决策来使其负责,并使其透明化,从而构成负责任或道德AI的基础。
甘地提出了一些基本问题:
在AI开发中有一个激烈的争论,即XAI将降低系统的性能。
因果关系不是我在其他XAI解释中看到的标准,因此我认为这是个人观点。
值得信赖,具有私密性并且对负责/道德的AI负责,但目前,XAI专注于系统的开发人员和所有者。