将UX镜头带入AI项目的五种方法
随着AI和机器学习工具的普及和普及,各类组织的产品和工程团队正在开发创新的,基于AI的产品和功能。AI特别适合模式识别,预测和预测以及用户体验的个性化,所有这些在处理数据的组织中都是常见的。
应用AI的先驱是数据-很多数据!通常需要大数据集来训练AI模型,任何拥有大数据集的组织无疑都将面临AI可以帮助解决的挑战。或者,如果数据集尚不存在,则数据收集可能是AI产品开发的“第一阶段”。
无论您打算使用什么数据集,人们都很有可能参与了该数据的捕获或将以某种方式使用您的AI功能。用户体验设计和数据可视化的原则应该是数据捕获和/或向用户呈现数据时的早期考虑因素。
1.尽早考虑用户体验
了解用户在模型开发开始时将如何与您的AI产品互动,可以帮助您在AI项目上设置有用的护栏,并确保团队专注于共同的最终目标。
例如,如果我们采用电影流媒体服务的“为您推荐”部分,则在开始数据分析之前概述用户在此功能中将看到的内容将使团队仅专注于可增加价值的模型输出。因此,如果您的用户研究确定电影的标题,图像,演员和片长将是有价值的信息,供用户在推荐中看到,则工程团队在决定应训练哪些数据集时将具有重要的背景。演员和电影长度数据似乎是确保推荐准确的关键。
用户体验可以分为三个部分:
之前-用户想要实现什么?用户如何获得这种体验?他们去哪里?他们应该期待什么?
在此期间-他们应该如何定位自己?清楚下一步该怎么做吗?如何引导他们克服错误?
之后-用户是否实现了目标?体验是否有明确的“终点”?后续步骤(如果有)是什么?
知道用户在与模型进行交互之前,之中和之后应该看到的内容,将确保工程团队从一开始就对AI模型进行准确数据的培训,并提供对用户最有用的输出。
2.对使用数据的方式保持透明
您的用户是否会知道您从他们那里收集的数据正在发生什么,以及为什么需要它?您的用户是否需要阅读条款和条件页面以获取提示?考虑将基本原理添加到产品本身中。一个简单的“这些数据将使我们推荐更好的内容”可以消除用户体验中的摩擦点,并为体验增加一层透明度。
当用户在The Trevor Project寻求辅导员的支持时,我们明确表示,在将他们与辅导员联系之前,我们所需要的信息将用于为他们提供更好的支持。
如果您的模型将输出呈现给用户,请进一步讲解模型是如何得出结论的。Google的“为什么这则广告?” 选项可让您深入了解推动搜索结果的因素。它还使您可以完全禁用广告个性化,从而允许用户控制如何使用其个人信息。解释模型的工作方式或其准确性水平可以增加对用户群的信任,并使用户能够自行决定是否参与结果。低准确性级别也可以用作提示,以从用户那里收集其他见解,以改进您的模型。
3.收集用户对模型性能的见解
提示用户提供有关其使用体验的反馈,使产品团队可以不断改进用户体验。在考虑反馈收集时,请考虑AI工程团队如何从持续的用户反馈中受益。有时人类可以发现AI不会发现的明显错误,并且您的用户群完全由人类组成!
收集用户反馈的一个示例是Google识别电子邮件为危险邮件,但允许用户使用自己的逻辑将电子邮件标记为“安全”。这种正在进行的手动用户校正使模型可以随着时间的推移不断学习危险消息的外观。
如果您的用户群也具有上下文知识来解释AI错误的原因,那么此上下文对于改进模型可能至关重要。如果用户在AI返回的结果中发现异常,请考虑如何为用户提供一种轻松报告异常的方法。您可以问用户哪些问题来征询工程团队的关键见解,并提供有用的信号来改进模型?工程团队和UX设计人员可以在模型开发期间一起工作,以尽早计划反馈的收集,并为持续进行的迭代改进建立模型。
4.收集用户数据时评估可访问性
可访问性问题导致数据收集偏斜,并且在排他性数据集上受过训练的AI可能会产生AI偏差。例如,在大多数由白人男性面孔组成的数据集上进行训练的面部识别算法,对于非白人或男性而言,其效果都会很差。对于直接支持LGBTQ青年的组织如Trevor项目,考虑性取向和性别认同非常重要。从外部查找包容性数据集与确保您带到表或打算收集的数据具有包容性一样重要。
在收集用户数据时,请考虑用户将利用的平台与您的AI进行交互,以及如何使它更易于访问。如果您的平台需要付款,不符合可访问性准则或具有特别笨拙的用户体验,则您将收到那些无法负担订阅,具有可访问性需求或对技术的了解较少的用户的信号。
每个产品负责人和AI工程师都有能力确保社会中边缘化和代表性不足的群体可以访问他们正在构建的产品。了解您不知不觉中将您排除在数据集中之外的人是构建更具包容性的AI产品的第一步。
5.考虑在模型开发开始时如何衡量公平性
公平与确保您的培训数据具有包容性息息相关。衡量模型的公平性要求您了解模型在某些使用情况下可能会不太公平。对于使用人员数据的模型,查看模型在不同人口统计方面的表现可能是一个不错的开始。但是,如果您的数据集不包含人口统计信息,则这种类型的公平性分析可能是不可能的。
在设计模型时,请考虑数据如何使输出偏斜,或如何使某些人受益。确保您用于训练的数据集以及从用户那里收集的数据足够丰富,可以衡量公平性。考虑如何在常规模型维护中监视公平性。设置公平性阈值,并制定一个计划,以解决模型随着时间的推移变得不太公平时如何调整或重新训练模型。
作为新手或经验丰富的技术人员,开发基于AI的工具,考虑您的工具如何受到用户的影响以及对用户的影响永远不会太早或太晚。人工智能技术有潜力大规模地吸引数百万用户,并可以应用于高风险的用例。全面考虑用户体验(包括AI输出将如何影响人们)不仅是最佳实践,而且在道德上也必不可少。