ChatGPT比医生更能回答病人的问题
作者:编辑部
2024-01-18
摘要:然人工智能不能取代临床医生,但它可以起草准确的、有同理心的回应。

发表在《美国医学会内科杂志》(JAMA Internal Medicine)上的一项新研究表明,人工智能工具可以帮助医生起草高质量、富有同情心的书面答复。该研究将ChatGPT与医生在社交媒体在线论坛Reddit的AskDocs上的书面回复进行了比较。AskDocs是reddit的一个子版块,会员可以在这里公开发布医疗问题,经过验证的医疗专业人员可以提交答案。

研究人员随机抽取了195名经过验证的医生对AskDocs上一个公共问题的回答,并向ChatGPT提出了同样的问题。然后,由三名独立的有执照的医疗保健专业人员组成的小组选择哪一种反应更好,并判断所提供信息的质量以及共情程度或表现出的对病人的态度。

在不知道回复是由医生还是ChatGPT撰写的情况下,独立的医疗保健专业人员在79%的情况下选择了ChatGPT的回复。ChatGPT的回答质量比医生的回答高3.6倍,同理心比医生的回答高9.8倍。ChatGPT的回答明显更长(平均211个单词),而医生的回答要短得多(平均52个单词)。评估反应的临床团队发现,ChatGPT的反应既微妙又准确。

以下是与人工智能增强医生对患者反应的未来相关的四个新兴趋势:

1. 将人工智能工具整合到临床环境中的研究将会有所帮助。

这项研究并不建议人工智能取代医生,也不是在临床环境中进行的,但它确实强调了像ChatGPT这样的人工智能助手为临床医生回答病人的问题起草有用的回答的潜力。下一步将是研究人工智能助手在临床环境(而不是公共社交媒体论坛)中的表现,包括当它们与现有的安全电子医疗平台无缝集成时的表现,在电子医疗平台上,临床医生会直接回答患者的私人问题。私人临床环境中的问题类型可能更具体到个别病例,并且可能与公共论坛上提交的问题不同。病人的私人问题可能会假设医生已经了解他们的情况,或者参考之前亲自讨论过的内容。这些类型的问题可能会给ChatGPT带来不同的挑战。

2. 人工智能增强有可能缓解医生和临床医生的倦怠和同情心淡漠。

人工智能助手实际上并没有同理心或感觉,所以好处是它们不会像人类那样经历同情疲劳。医生的职业倦怠正在增加,并且与管理任务的超负荷有关。根据《2023年Medscape医生职业倦怠和抑郁报告》,53%的医生表示他们已经筋疲力尽,近四分之一的医生报告有抑郁症状。导致职业倦怠的首要因素是行政和官僚任务,医生报告称,他们每周在工作之余花9个多小时处理文件。人工智能工具可以通过为患者沟通提供草稿来减轻这种工作量。

3. 对临床医生进行包括人工智能局限性(包括偏见)在内的培训将非常重要。

人工智能模型在偏见、幻觉和错误计算方面仍然有限,因此医生和临床监督仍然至关重要,因为医疗交流关系到患者的健康。应向临床医生提供培训和教育,以确保他们认识到这些人工智能的局限性,以防止医生在未经审查的情况下发出人工智能生成的答复草案。

4. 人工智能工具对临床医生判断、决策和人际交往的长期影响目前尚不清楚。

依赖人工智能工具的潜在影响尚不清楚。如果临床医生开始依赖这些人工智能工具来对患者产生这些反应,会产生什么次要影响?人工智能训练数据中存在的偏见会影响医生的行为、决策或人际交往吗?这些问题的答案是不确定的,这将是发现人工智能如何改变医患关系的一部分。

热门文章