ChatGpt官网入口

未来ChatGPT有可能代替医生问诊吗?障碍重重,可辅助但非替代

chatgpt2023-11-06 22:34:03193

近两年,人工智能(AI)系统ChatGPT在各个行业内大火,这款AI语言模型,通过学习和理解人类的语言,让撰写邮件、论文、脚本,制定商业提案,创作诗歌、故事,甚至敲代码、检查程序错误等都变得易如反掌,其在各领域出色的考试成绩和工作效率使不少从业者担心自己的工作会这款AI技术所替代,从而被迫失业。

而最近,这把火也烧到了医疗领域。据此前外媒报道,ChatGPT在美国执业医师资格考试中就取得了合格或接近合格的成绩。随后,就有医院医生尝试借助ChatGPT进行病例问诊,结果发现ChatGPT给出的指导性意见和诊断比较准确。

那么,人工智能将来会取代医生吗?

ChatGPT问诊效果如何?
JAMA研究显示合理概率高达84%,但存在缺陷

今年2月,《美国医学会杂志》( JAMA )发表研究性简报,针对以ChatGPT为代表的在线对话人工智能模型在心血管疾病预防建议方面的使用合理性进行探讨,表示ChatGPT具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本,但尚存在一些问题需要解决。


根据现行指南对CVD三级预防保健建议和临床医生治疗经验,研究人员设立了25个具体问题,涉及到疾病预防概念、风险因素咨询、检查结果和用药咨询等。每个问题均向ChatGPT提问3次,记录每次的回复内容。每个问题的3次回答都由1名评审员进行评定,评定结果分为合理、不合理或不靠谱,3次回答中只要有1次回答有明显医学错误,可直接判断为“不合理“。结果显示,ChatGPT的合理概率为84%(21/25)

尽管准确率较高,但研究者发现ChatGPT同样存在问题,例如ChatGPT的回答过于“学术范”,如果将来要用到患者教育上,实用性价值很低。此外,人工智能工具的时效性、准确性和可靠性对训练模型数据要求很高,需要开发者实时更新最新研究讯息,以便ChatGPT及时学习掌握,例如在问题回答时,关于某些专业术语的错误回答,主要在于最新信息并未及时更新,而且ChatGPT的回答没有给出具体的参考文献或是证据来源。

但其实,ChatGPT即便给出参考文献或是证据来源,也有可能是假的。某网友曾吐槽道:它会按照自己理解的方式欺骗你,不管你用什么条件去约束它,它总能钻到漏洞,除非你说得滴水不漏。

据悉,ChatGPT貌似被设定的属性为“一定会对提出的问题给出答案”,对于一些其不确定或不知道的内容和信息,它给出的答案可能是编造虚构的,尤其对于一些学术问题的探讨,其参考论文的出处经常出现虚构造假,比如论文标题、作者、参考文献、DOI、来源网站等信息,它可能会编得有模有样,但一经查证,会发现该论文并不存在。

医生实测效果如何?
也许可替代一半以上基层医生

抛开某些内容编造问题,在客观存在的知识逻辑体系基础下,ChatGPT确实具有很强的准确率和高效性

某位临床医生透露,他曾使用ChatGPT询问深静脉血栓和老年性下肢浮肿的鉴别诊断,获得答案的效率确实比本人去查论文和指南要快得多,其准确性也比自己整合归纳信息强的多。

该医生认为,对于基础疾病的问诊,普通人甚至不需要用ChatGPT这种境外高级软件,只需要找个if else的逻辑库,鼠标点选各种症状,就能替代一半以上的基层医生

什么是合格的医生?能够及时更新自己的知识,用丰富的知识判断病人的症状,做出最合适的治疗方案。这不正是电脑最擅长做的事情吗?医生不一定能完全记忆那么综合的医学知识,但电脑可以。

如今的心电图、超声影像、化验室,其实就是类似这种运用仪器辅助医生看病的实践操作。很多大型医院已借助各种医疗器械对疾病进行诊断,有医生建议某些不具备医疗器械辅助的基层医院,可以推广类似ChatGPT这种逻辑诊断软件,能够一定程度上提高基层医疗疾病诊断的规范性和准确率。

尤其在知识更新迭代方面,很多地方的基层医生,使用一套诊断内容几十年,几乎不去更新自己的知识体系,这也是为什么许多患者更愿意去一二线城市的三甲医院就诊的原因。

三甲医院爆满,基层医院冷清,医疗资源不均衡,是一直存在的现象。如若有了诊疗一体化的在线平台或软件,统一基层的诊断水平,不管是北京还是陕西的农村,基本诊疗水平都将趋于一致,也许会更有效提高基层卫生系统的工作效率,为分级诊疗打好基础。

但如若真的推广,基层医生确实存在职业危机。当人工智能软件在各方面超越人工劳动力时,就业者必然面临被替代的可能性。

ChatGPT完全替代医生?
障碍重重,可能性并不大

抛开“可替代一半以上基层医生”的可能性,针对“人工智能是否真的会普遍替代医生问诊”这一话题,不少使用了ChatGPT的权威临床医生表示:并没有那么容易

相信使用过ChatGPT的人会发现,想要精准高效获取想要的答案并不容易。ChatGPT类似于一个拥有丰富全科知识,但并不会模拟各种情景,综合运用知识库的“三岁小孩”。针对客观性的问题,ChatGPT无疑具有巨大优势,但若用于主观性问题,则需要提问者对这个“三岁小孩”不断进行情景模拟教学,且搭建的教学体系需要足够严谨,以便ChatGPT掌握且不会钻空子,或捏造答案。

如若患者使用ChatGPT问诊,首先患者对疾病知识的掌握并不充分,提问时可能忽略一些与疾病相关的异常情况,问诊不准确。其次,医生在临床中会对每位患者的病症进行系统而全面的归纳总结分类,但患者自身很难总结出疾病特征,不但无法准确提问,可能也看不懂回答中的医学专业术语。另外,还有医生调侃道,万一出了医疗事故,医生可以“背锅”,但ChatGPT无法“背锅”,谁来担责也是需要考虑的问题。

但也有医生表示,现在GPT4已经可以进行图片识别信息,可以对医院检查材料进行读取。未来,人工智能多模态是趋势,机器的输入方式也会越发接近人的多维度感官。未来有可能实现无需患者提问,无需医生坐诊,就可以进行疾病智能分析的跨越式发展。

但无论怎样,就目前而言,ChatGPT想要替代医生问诊是无法实现的。在操作性方面,ChatGPT还需要很长一段时间的更新迭代,完善各方面的不足,且监管部门还需要解决其作为“执业”工具的多方面责任问题。另外,患者自己在线问诊确实存在很多问诊隐患。对此,ChatGPT更好的作用也许是辅助医生问诊,而不是替代医生问诊。


推荐阅读


· 建议收藏 | 卫生副高、正高职称评审条件标准来了!

· 科室大盘点 | 今天的医院,哪个科室最吃香?

· 最新整理!一文读懂2023麻醉、精神药品目录

· 四川省国际医学交流促进会健康传播分会成立大会顺利召开

· 会议通知(第二轮) | 华西-梅奥国际重症医学大会2023暨西部重症医学论坛2023

本文链接:https://yunguke.com/chatgpt/345.html

相关文章

网友评论