是什么东西使AI算法变得危险
欢迎阅读AI书评,这是一系列探讨人工智能最新文献的文章。
在讨论人工智能的威胁时,首先想到的是天网,黑客帝国和机器人启示录的图像。排名第二的是技术失业,这是在可预见的未来的愿景,在该愿景中,人工智能算法将接管所有工作,并促使人们在不再需要人工劳动的世界中为无意义的生存而奋斗。
这些威胁中的任何一个还是两个都是真实存在的,在科学家和思想领袖之间引起了激烈的争论。但是AI算法也以不那么明显和难以理解的方式构成了当今更加迫在眉睫的威胁。
在数学破坏性武器:大数据如何增加不平等并威胁民主的书中,数学家凯茜·奥尼尔(Cathy O'Neil)探索了盲目地相信算法以做出敏感决策如何伤害许多接受决策的人。
AI算法的危险可以表现在算法偏差和危险的反馈循环中,并且可以扩展到日常生活的各个领域,从经济到社会互动,再到刑事司法系统。
尽管在决策中使用数学和算法并不是什么新鲜事,但深度学习的最新进展以及黑匣子AI系统的泛滥放大了它们的影响,无论是好是坏。而且,如果我们不了解AI的当前威胁,我们将无法从其优势中受益。
危险AI算法的特征
我们使用算法进行建模以理解和处理许多事情。“毕竟,模型只不过是某种过程的抽象表示,无论是棒球比赛,石油公司的供应链,外国政府的行为,还是电影院的出席,”奥尼尔在《数学武器》中写道破坏。“无论是在计算机程序中运行还是在我们的头脑中运行,该模型都会利用我们所知道的知识,并用它来预测各种情况下的响应。”
但是,由于深度学习的进步以及我们生活各个方面的数字化日益增强,越来越多的模型已经从我们的头脑转移到了计算机上。得益于宽带互联网,云计算,移动设备,物联网(IoT),可穿戴设备以及一系列其他新兴技术,我们可以收集和处理越来越多关于任何事物的数据。
对数据和计算能力的这种不断增长的访问帮助创建了可以自动执行越来越多任务的AI算法。以前仅限于研究实验室的深度神经网络已经进入许多以前对计算机具有挑战性的领域,例如计算机视觉,机器翻译,语音和面部识别。