精明的演讲者很有用又有趣 但不要让他们成为所有知识的女王
几年前,当我们被要求帮助索尼电影公司推广“生化危机”电影专营权时,我们想到了将虚构的人工智能 角色(红色女王)变成真正的AI角色的想法 -粉丝可以互动。这个有趣的概念非常成功,但是却带来了一些严峻的挑战,并提醒我们构建真正有意义的AI的难度。
创建 AI(包括Alexa这样的智能扬声器和Siri这样的智能手机助手)是具有挑战性的。这些设备提供了有用的实用功能,并且很有趣,但是它们是由人类创造和训练的,可能会引起偏差和动力动态,应予以解决。
敬业度是我们开始使用 Red Queen AI时的目标。我们首先收集该系列电影的作家创作的所有剧本。我们训练了AI使用自然语言处理技术来学习角色,然后生成了完全由AI编写的新对话,以查看其工作原理。
前几个AI输出是一场噩梦。该模型中没有足够的训练数据,因此该角色的新AI版本过于激进。我们需要更多数据来减轻恶劣的反派角色,使其能够为更广泛的受众服务。
影片角色的口号是“你们都将在这里死去”,但AI的第一个版本无法完全正确。它给我们带来了一些非常有趣的结果,包括“您必须死”和“您的死亡就在这里”。您可能会想到,这可能会因上下文而有些沉重,并且可能会阻碍我们接触尚未出现的新受众的能力。看过以前的电影。
为了增加更多的训练数据并使AI更智能,我们决定利用Charles Dickens和Shakespeare等作家的文献,以便AI可以借鉴经典反派的更温和的交流方式。然后,我们增加了警方与罪犯的交往中的真实对话,以提供更多的真实感和现代的交流,以及使用精神药物的人讲述他们所见事物的实例,最终提供了一些颇具创造性的对话。
我们进行了培训和再培训,最后确定了AI的输出结果:“我不确定我是否已经和您一起玩了。”这样的话会显得更加有趣,而不是那么有害。加上它在参与的背景下工作,使人们可以重新参与游戏。
每个人都对最终结果感到满意,并且这款游戏大受欢迎。但重要的是要注意,我们在决定使用哪些训练数据方面存在偏见。作家关于什么才是好坏人的决定有偏见。当目标是娱乐时,所有这些有偏见的偏见都可以-但在由语音助手管理的更严肃的对话(例如医疗保健,财务和营养)上,应谨慎对待。
AI助手的创建者,通常是一群匀称的小人物,他们决定对数十亿人来说正确的(或最准确的)答案是什么。这些随意的陈述使AI助手的用户可能将福音视为现实的歪曲事实。
例如,一年多以前,亚历克斯(Alexa)被指控存在 自由主义偏见。去年1月, 当有人问Google Home耶稣是谁而设备无法回答但可以告诉用户佛陀是谁的时候,一段 视频开始传播开来。该公司解释说,它不允许设备回答问题,因为一些答案来自网络,这可能会促使基督徒做出不敬的回应。
随着智能扬声器的使用不断增长,人们的期望也越来越高。 根据“智能音频报告”,从2017年12月到2018年12月,美国家庭中的智能扬声器数量增长了 78%,达到1.185亿个。但是,用户需要注意AI平台的工作方式。
毕竟,当一台设备(因此,一家公司)拥有获取外部知识的道路时,该公司可以出于自己的利益采取不道德的行动。
例如,如果我要求Siri播放披头士乐队的歌曲,则该设备可能会自动播放Apple Music而不是我的Spotify库中的歌曲。或者我可能会要求Alexa订购AA电池,而Alexa可以很高兴地订购 亚马逊自有品牌。
在应该使消费者受益的竞争的自由市场中,这些缺陷可能会构成重大障碍。可以想象,拥有发言人的公司可以获得比以往更多的商业控制权。
为此,用户对AI设备的请求应尽可能透明。例如,“更详尽的说明”是“在Spotify上播放披头士乐队”或“订购最便宜的AA电池”。用户越了解公司如何与他们互动,他们越能在保持环境控制的同时享受AI助手的好处。
您还可以在购买商品时要求AI设备与特定公司进行通信。例如,百思买提供的独家交易只有在通过智能扬声器订购时才能获得。您还可以获取订单更新,客户服务需求帮助以及新版本的更新。
用户应该记住,人工智能助手是工具,他们需要考虑如何管理它们,以获得良好的体验。
如果助手让他们感到不舒服,则用户应报告响应,以便这些设备和技能的制造者可以改善每个人的体验。自然语言处理需要考虑的重点,因为潜在的好处与发生错误的责任一样重要。
至于我们的自然语言处理和Red Queen,我们发现一些用户在晚上以“ Good night,Red Queen”签字,这表明她最终并不太积极。