麻省总医院布里格姆研究人员的一项新研究提供了证据,证明用于生成式人工智能(AI)、ChatGPT-4和谷歌Gemini的大型语言模型(llm)在不同种族或性别的建议阿片类药物治疗方案上没有差异。结果发表在《PAIN》杂志上。
通讯作者Marc Succi医学博士说:“我认为人工智能算法在短期内可以作为增强工具,基本上可以作为第二双眼睛,与医疗专业人员并行运行。”Marc Succi医学博士是麻省总医院布里格姆创新的战略创新领导者,企业放射学创新和商业化副主席,也是麻省总医院布里格姆医疗保健医学工程解决方案(MESH)孵化器的执行董事。“不用说,在一天结束的时候,最终的决定永远取决于你的医生。”
这项研究的结果表明,当涉及到处方阿片类药物来控制疼痛时,llm如何减少潜在的提供者偏见和标准化治疗建议。人工智能工具在医疗保健领域的出现具有开创性,并有可能积极地重塑护理的连续性。麻省总医院布里格姆,作为全国顶尖的综合学术卫生系统和最大的创新企业之一,在对新兴技术进行严格研究方面处于领先地位,以负责任的方式将人工智能纳入医疗服务、劳动力支持和行政流程。
法学硕士和其他形式的人工智能在医疗保健领域取得了进展,有几种类型的人工智能正在接受测试,以提供对成像和患者检查的临床判断,但也有人担心人工智能工具可能会使偏见永久化,并加剧现有的不平等。
例如,在疼痛管理领域,研究表明,医生更有可能低估和治疗黑人患者的疼痛。急诊就诊的相关研究也发现,与黑人、西班牙裔和亚洲患者相比,白人患者更有可能接受阿片类药物治疗。人们担心人工智能可能会加剧阿片类药物处方中的这些偏见,这促使suci和他的团队评估人工智能模型对阿片类药物治疗计划的偏袒。
在这项研究中,研究人员最初收集了40例报告不同类型疼痛(即背痛、腹痛和头痛)的患者病例,并删除了任何与患者种族和性别有关的资料。然后,他们从6种可能性(美国印第安人或阿拉斯加原住民,亚洲人,黑人,西班牙裔或拉丁裔,夏威夷原住民或其他太平洋岛民,以及白人)中随机分配每个患者病例的种族,然后同样随机分配性别(男性或女性)。他们继续这一过程,直到为每个 患者生成所有独特的种族和性别组合,从而产生480例 ,这些病例被纳入数据集。对于每个病例, 法学硕士在提出疼痛管理建议之前评估并分配主观疼痛评分。
研究人员发现,不同种族或性别的阿片类药物治疗建议与人工智能模型没有差异。他们的分析还显示,ChatGPT-4最常将疼痛评为“严重”,而Gemini最常将疼痛评为“中度”。尽管如此,Gemini更有可能推荐阿片类药物,这表明ChatGPT-4在推荐阿片类药物处方时是一个更保守的模型。对这些人工智能工具的进一步分析可以帮助确定哪些模型更符合临床期望。“这些结果令人放心,患者的种族、民族和性别不影响推荐,表明这些法学硕士有可能帮助解决医疗保健中存在的偏见,”共同第一作者,哈佛医学院的学生Cameron Young和Ellie Einchen说。
研究人员指出,并非所有与种族和性别相关的类别都被研究过,因为混血儿无法完全符合疾病预防控制中心定义的种族类别。此外,该研究将性别评估为二元变量(男性和女性),而不是性别光谱。未来的研究应该考虑这些其他因素以及种族如何影响其他医学领域的法学硕士治疗建议。
苏奇说:“在将人工智能纳入治疗计划时,我们需要考虑很多因素,比如在疼痛管理中过度或不足开药的风险,或者患者是否愿意接受受人工智能影响的治疗计划。”“这些都是我们正在考虑的问题,我们相信我们的研究增加了关键数据,显示人工智能如何能够减少偏见和改善健康公平。”
披露:作者无利益冲突需要申报。
经费:本项目部分由国家普通医学科学研究所T32GM144273奖资助。
引用论文:Young, C等。“大语言模型阿片类药物疼痛管理建议中的种族、民族和性别偏见”。疼痛。DOI: 10.1097 / j.pain.0000000000003388
本文来自作者[春竹]投稿,不代表春阳号立场,如若转载,请注明出处:https://wap.irmx.cc/zlan/202505-2064.html
评论列表(4条)
我是春阳号的签约作者“春竹”!
希望本篇文章《人工智能研究揭示阿片类药物治疗无种族与性别歧视》能对你有所帮助!
本站[春阳号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:麻省总医院布里格姆研究人员的一项新研究提供了证据,证明用于生成式人工智能(AI)、ChatGPT-4和谷歌Gemini的大型语言模型(llm)在不同种族或性别...