医疗AI聊天机器人有潜力为患者提供咨询,但错误的回答和有偏见的护理仍然是重大风险。
如果一个患者知道他们的医生在即将到来的预约中会给他们错误的信息,他们会立即取消。然而,像ChatGPT这样的生成式AI模型经常会“产生幻觉”,意思是编造东西。那么为什么有人想要使用AI进行医疗目的呢?
这是一个乐观的情景:AI工具在经过验证的医学文献上接受培训,正如一些正在开发中的模型已经做到的那样,但它们还会扫描患者记录和智能手表数据。然后,像其他生成式AI一样,它们会生成文本、照片,甚至视频,针对每个用户进行个性化,并且足够准确以提供帮助。而反乌托邦版本则是:政府、保险公司和企业推动有缺陷的AI以降低成本,导致患者迫切需要人类临床医生的医疗护理。
现在,很容易想象事情会出错,特别是因为AI已经被指责在网上传播有害的建议。今年春天晚些时候,国家饮食障碍协会暂时停用了其聊天机器人,因为有用户声称它鼓励了不健康的饮食习惯。但在美国,人们仍然可以下载使用AI来评估症状的应用程序。尽管存在潜在问题,一些医生仍然试图使用这项技术与患者更富同情心地沟通。
ChatGPT和其他大型语言模型“非常自信,非常善于表达,但很常常是错误的”,约翰霍普金斯大学计算机科学教授Mark Dredze说。简而言之,人们在能够信任其医疗建议之前,AI还有很长的路要走。
然而,Dredze对该技术的未来持乐观态度。他的最新研究发现,ChatGPT已经给出了与医生在Reddit论坛上提供的建议相媲美的建议。而且,未来的生成式模型可能会在一定程度上补充医生的诊断,而不是完全取代咨询,Hugging Face的机器学习工程师Katie Link表示。例如,在就诊后,它们可以更全面地解释治疗和病情,或者帮助避免因语言障碍而产生的误解。
在更乐观的展望中,哈佛医学院的AI和医疗保健研究员Oishi Banerjee设想了能够整合多个数据源的AI系统。利用照片、患者记录、可穿戴传感器等信息,他们可以“为任何人在任何地方提供良好的护理”,她说。你手臂上有奇怪的皮疹?她想象中的皮肤科应用程序可以分析照片,并查看你最近的饮食、位置数据和病史,为你找到合适的治疗方法。
随着医疗AI的发展,行业必须确保越来越多的患者数据的安全。但麻省理工学院的机器学习实验室负责人Marzyeh Ghassemi表示,监管机构现在可以为负责任的进展奠定基础。许多医院已经将匿名化的患者数据出售给谷歌等科技公司;美国政府机构可以要求它们将这些信息添加到国家数据集中,以改进医疗AI模型,加塞米建议。此外,联邦审计可以审查医院和医疗团体使用的AI工具的准确性,并停止向低质量软件提供有价值的医疗保险和医疗补助金。医生们不应该只是被交付AI工具,他们应该接受如何使用它们的广泛培训。
很容易看出AI公司可能会诱使组织和患者注册使用不能被信任的服务。立法者、医疗保健提供者、科技巨头和企业家需要谨慎行事。生命取决于此。
本文译自 Popular Science,由 BALI 编辑发布。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )