算法能比人类更准确地识别不寻常的用药指令或档案吗?不一定。蒙特利尔拉瓦尔大学(University Laval)和圣贾斯丁州立大学(ChU Sainte-Justine)的研究人员共同撰写的一项研究发现,一名用于筛查患者的模范医生在某些订单上表现不佳。这项研究提醒人们,未经审查的人工智能和机器学习可能会对医学结果产生负面影响。
药剂师审查他们护理的住院病人的活性药物清单--即药理学档案。这一过程旨在识别可能被滥用的药物,但大多数用药单都没有显示与药物有关的问题。十多年前的出版物展示了技术的潜力,可以帮助药剂师通过承担审查订单等任务来简化工作流程。但是,尽管最近的研究已经调查了人工智能在药理学方面的潜力,但很少有研究证明它的有效性。
这项最新工作的合著者研究了2020年4月至2020年8月期间在一家三级保健母婴学术医院部署的模型。该模型在2005年至2018年2846,502份用药订单的数据集上进行了训练。这些资料是从药房数据库中提取出来的,并被预处理成1,063,173份档案。在数据收集之前,每个月都会用数据库中10年的最新数据对模型进行重新训练,以最大限度地减少漂移,当模型失去预测能力时就会发生漂移。
在观察预测之前,这家学术医院的药剂师将数据库中的用药顺序评为“典型”或“非典型”。患者只接受一次评估,以最大限度地减少包括药剂师之前评估过的个人资料的风险。根据药剂师的专业知识,非典型处方被定义为那些与通常的处方模式不一致的处方,而如果其中至少有一个用药顺序被标记为非典型,则被认为是非典型的。
该模型的个人预测被提供给药剂师,药剂师表示他们是否同意或不同意每个预测。学院医院的7个科室的25名药剂师总共收到了12471份用药订单和1356份个人资料,这些药剂师大多来自妇产科。
研究人员报告说,该模型在医嘱方面表现不佳,F1得分为0.30(越低越差)。另一方面,这位模特的个人资料预测取得了令人满意的表现,F1得分为0.59分。
该模型性能问题的一个原因可能是缺乏代表性的数据。研究表明,有偏见的诊断算法可能会使不平等永久化。一组科学家最近发现,几乎所有的眼病数据集都来自北美、欧洲和中国的患者,这意味着眼病诊断算法不太确定对来自代表性不足国家的种族群体有效。在另一项研究中,斯坦福大学的研究人员声称,涉及人工智能医疗用途的研究的大部分美国数据来自加利福尼亚州、纽约和马萨诸塞州。
认识到这一点,这项研究的合著者表示,他们不认为该模型可以作为一个独立的决策支持工具。然而,他们认为,它可以与基于规则的方法相结合,以确定独立于常规做法的用药顺序问题。他们写道:“从概念上讲,向药剂师展示每个订单的预测应该会更好,因为它可以清楚地识别出哪个处方是非典型的,而不像个人资料预测那样只告诉药剂师某些东西在个人资料中是不典型的。”“虽然[我们的]焦点小组表示对药剂师的订单预测缺乏信任,但他们满意地利用这些预测作为一种保障,以确保他们不会错过不寻常的订单。”这让我们相信,即使是适度提高这些预测的质量,在未来的工作中也可能是有益的。“
初创企业如何扩展通信: 这场流行病让初创企业密切关注如何提升他们的通信解决方案。学习如何