新的伦理框架是为了解决人工智能临床数据分发中的伦理交付问题而制定的
在一个日益网络化的数字世界中,数据保护是一种极其局部的交付,随着补救措施的采用和开发对研究和开发更有利的数字工具,对患者数据保险的限制提出了更多的问题。
欢迎光临
《放射学》杂志发表的一篇特别文章指出,临床数据应可用于研究和开发以及人工智能算法的开发等次要目的。
人工智能有可能加快重要医学图像投影分析,但是为了教技术正被用来确定的条件,他必须拿出大量的数据和图像,比如mamogramas体检和CT扫描等。这就提出了有关伦理框架的重要问题,在共享患者数据时,伦理框架将保护患者数据。
David b . Larson博士、医学博士、MBA、斯坦福大学斯坦福大学医学院,加利福尼亚,把研究和解释说“临床数据将必须把研究人员和处置后已经聚合和卸载了所有患者的标识符”,但“一切行善与这些数据相互应预期高涨的伦理模式,包括保护患者隐私和销售临床数据。
在此之前,关于临床数据分布的讨论主要集中在所有权方面,选择是患者拥有其医疗数据,还是生成数据的医疗机构拥有该数据。然而,拉尔森博士和他的同事们提出了第三种选择,当数据被用于次要目的时,这种选择根本不赋予数据所有权。
拉尔森博士和斯坦福大学的研究团队开发了一个专门用于人工智能技术开发中临床数据的分发和使用的框架。拉尔森确认获得临床工具可以处理的数据和数字”加速了我们赢得理解和能力开发新的应用程序,可以惠及患者和人群,“只有数据伦理问题,使用“阻止经常分发这些信息。”
他继续说:
医学数据,即简单的记录观察,是为了给病人提供护理而检测出来的。当提供这种护理时,这种目的就实现了,所以我们需要找到另一种方法来思考这些记录下来的观察结果应该如何用于其他目的。
“我们相信,患者、提供者组织和算法开发人员都有道德义务帮助确保这些观察结果被用于造福未来的患者,认识到保护患者隐私是至高无上的。”
拉尔森框架将支持研究和开发的确定和汇总数据的下降。然而,那些使用数据的人必须被确定并遵守严格的道德实践。该框架不需要病人的同意,因为他们不能总是选择不共享他们的数据,以供人工智能披露,但他们的隐私必须得到保护。
这篇文章指出,当数据以这种方式使用时,主要关心的不是数据本身,而是“它们所呈现的基础的物理属性、现象和行为”。
提交人认为,他们正在对患者的利益”,研究人员可以观察其临床数据来赢得一个更深的判断在解剖学、生理学和progresiones病症,但只有当他们不能确定任何病人而这样做。
临床销售不准许供应商资料框架Larson,但公司将受益于组织的AI算法由于临床数据事实而来而不是利润销售数据,只有技术或活动数据的结果。提供者组织可以与提供财政支持以促进其研究的合作伙伴共享临床数据,前提是他们的支持仅用于其目的,而不是研究访问数据。
拉尔森说:“我们强烈强调,保护病人的隐私是至高无上的。必须确定数据。事实上,接收数据的人不应该试图通过确定技术来重新识别患者。
病人的隐私将通过从数据中删除所有确定的信息来实现。如果在投影扫描中确定特征是可见的,那么使用这些图像的任何人都需要通知共享图像的组织,以便有效地丢弃数据。正如拉尔森所言,这“将把供应商组织的道德义务扩展到所有与数据相互作用的人。”
我们希望这一框架将有助于在补救和信息技术领域以及与决策者进行更富有成效的对话,因为我们正在努力将伦理考虑仔细转化为监管和法律要求。
David B. Larson博士,斯坦福大学医学院
Larson及其同事开发的框架将上市的公共领域,使其他组织和个人潜力考虑而努力回答一些prensan约患者隐私和数据保护的AI技术和临床数据的分布。
研究人员揭示了人工智能时代共享临床数据的框架。