为什么我们需要AI开发中的多样性
当然,有些情况需要上下文信任。我相信我的三明治制造商会给我一个很棒的三明治,但是我可以相信他做我的眉毛吗?我相信我的丈夫,但不一定要芝士蛋糕。
正是这些模糊的情况甚至使最聪明的人工智能(AI)员工跳了起来。我们已经建立了久经考验的AI工作流程-后台操作,分析和高级计算。我们已经成功解决了在较新领域中使用AI的问题,例如分层上下文响应,语音识别,生物识别和自然语言处理。
在新兴的AI使用领域,包括在抵押贷款银行中特别常见的一个领域,即使用情感分析和高级上下文提示的客户参与度,越来越模糊。
人工智能在黑白方面表现最佳
在过去的几十年中,已经反复证明,如果您将AI专注于确定的任务(象棋,微积分和土壤管理),它就会表现出色。但是上下文知识仍然是一个谜,主要是由于我们的局限性。我们编写的代码和创建的逻辑受我们所处气泡的影响。
如果您拥有Google新闻Feed或社交媒体帐户,则说明您有从事AI的最终任务。提供具有相似属性的内容的新闻和媒体供稿可保持您的参与度。
由于ñEW纽约时报在他寒心科技专栏作家凯文·罗斯揭示了兔子洞播客,它没有做到的是为您提供思想的多样性。
推动这些提要的AI不会向您显示可能会扩大您视野的新闻和媒体提要。您所看到的一切都不会挑战您的信念。这是一个关键点,因为我们的经验和信念(包括通过书籍,朋友,电影和供稿的第一手和二手手)都在我们拥有和传授的知识中发挥着重要作用。
但是最好的人工智能是彩色的
在任何AI开发中都需要多样性以确保圆度,可接受的道德水平和人性的想法可能并不新鲜,但这仍然是一个问题。
从尼康未能认出亚洲面孔到微软灾难性的巨魔机器人泰伊(Tay)的每一次迭代,都扩大了我们的视野。人工智能需要与人互动,但是个人会给这些互动带来积极和消极的体验和信念。
我们如何捕捉美国熔炉的许多文化社会规范?我们知道要使用更大的数据集,寻找边缘情况,使我们的焦点小组多样化,并通过越来越大的测试进行完善。
在抵押银行业务中,人工智能会尽最大努力回答问题,并给出诸如“如果我使用房利美的HomeReady可以借到的最大金额?”的确切答案。
人工智能仍然不足的地方在于我们的抵押贷款发起人擅长的领域,而信念,经验和社会规范影响我们的财务决策的模糊领域。人工智能可以提供利弊来回答这个问题:“使用房利美的HomeReady或我的国家担保计划更便宜吗?”
它不能建议的是您的关系在使用岳父的收入获得HomeReady资格后可能会如何变化。