如何让人工智能为每个人服务
技术专家兼人工智能专家Kriti Sharma向Lyndsey Jefferson讲述人工智能的可能性,以及如何确保人类从快速发展中受益。Kriti是Good UK的AI创始人,Good UK是一个使用AI技术应对人道主义挑战的组织。
人工智能有哪些例子可以帮助解决世界上的一些问题?
我发现激励的几个例子是AI被用来提供医疗保健的领域,人类支持可能是相当严格或不够的。AI还可以提高准确率,以更安全的方式帮助更多人。
另一个例子是我们在AI for Good开发的产品叫做rAInbow,在那里我们建立了一个人工智能工具来帮助发现家庭暴力和虐待的早期迹象。这是一个影响三分之一女性的问题,无论是身体,性,心理或经济虐待。
这是一个例子,当人类可能不是最适合在早期阶段与之交谈时,人工智能可以提供帮助,特别是对于像羞耻,耻辱,尴尬和判断所包围的家庭暴力这样的问题。我们去年11月在南非推出了它,从那时起,我们已经有超过35万名来自女性的咨询,她们希望以非评判性和无偏见的方式了解滥用的早期迹象。
这不是答案,也不是人类支持服务的替代品。事实上,我们设计的产品与来自不同领域的人合作,包括为有需要的人提供面对面支持的人。人工智能可以发挥作用,帮助人们迈出第一步,然后将他们指向正确的服务。通过这种方式,人们可以更具预防性和主动性而不是被动反应。
众所周知,决策中的算法偏见,例如抵押贷款,贷款和工作申请,会歧视妇女和少数民族背景的人。如何应对算法偏差并确保公平地做出这些决策?
有三件事需要考虑。一:数据来自哪里?很多时候存在偏差,因为基础数据存在偏差。这是关于积极主动地查看其他数据集并尽早识别偏差。
其次是与来自不同社区的人合作。如果它是建立技术的同质群体,那么拥有这种无偏见的心态是非常困难的。将主题专家,人类学家,了解社会,伦理学家和律师的人纳入这一过程非常重要。
第三个方面是如何解释算法的见解。一个系统可能会抽出结果,但是由我们作为人类来看看如何使用这些信息。这不仅仅是建立算法;它是关于如何使用这些见解。你是以纯粹自动化的方式使用它们吗?
在AI for Good,我们正在做一个关于印度生殖和性健康的有趣项目。我们进行了大量的人工干预,因为这是一个非常敏感的问题,其中包括人类提供者偏见在内的偏见是一个大问题。判断机器可能并不总是很重要,您可以在设计过程中的恰当时机和适当的时间带人进入。