2024年,某地一名患者因AI辅助诊断系统将肺部阴影误判为良性结节而延误治疗,最终确诊为肺癌晚期。法院判决医院承担70%责任,AI供应商承担30%——这是国内首例明确AI供应商需承担赔偿责任的医疗纠纷案例。
这个案例如同一颗石子,在医疗AI行业激起千层浪。它揭示了一个残酷的现实:当大语言模型(LLM)和人工智能深度介入临床诊疗,技术的光环背后,是一片尚未厘清的法律真空地带。
根据最新研究数据,GPT-4等主流医疗AI模型的平均诊断准确率为52.1%,与非专家医生相当,但较专家医生仍有15.8%的差距。更值得关注的是,在《新英格兰医学杂志》发表的复杂病例测试中,GPT-4的诊断正确率为52.7%,医生单独诊断的准确率约为75%,而当医生使用ChatGPT辅助时,准确率反而降至约76%——几乎没有提升。
这些数字背后,隐藏着一个医疗行业正在面对但尚未解决的核心问题:当AI参与诊疗决策时,责任的边界在哪里?

当前,中国国家药品监督管理局(NMPA)和美国FDA对医疗AI的定位十分明确:辅助工具,而非独立诊断设备。这意味着AI给出的任何诊断结论,都必须经过医生的复核与确认。
然而,这种"辅助"定位在临床实践中遭遇了悖论:
医生的困境:如果完全依赖AI的判断,一旦出错,医生被认定为"未尽审慎义务";如果完全不采信AI的建议,那么引入这套昂贵系统的意义何在?更严重的是,当AI识别出医生漏掉的病变,而医生出于谨慎选择"不相信AI"导致漏诊,责任又该如何界定?
一位三甲医院影像科主任在接受采访时坦言:"我们现在处于一种微妙的平衡状态。AI标注的可疑病灶我们都要逐一复核,但有时工作量太大,很难做到100%的审慎。如果出了问题,法律上我们是第一责任人,但技术上我们可能确实漏掉了AI发现的问题。"
一项针对全球患者的大规模调查显示,虽然57.6%的受访者认可AI作为医疗辅助工具的价值,但仅有4.4%愿意接受完全由AI作出的诊断结论。48.5%相信AI会提升医疗水平,但43.9%的患者对AI的可靠性表示怀疑。
这种信任分歧的根源在于:

在中国现行法律体系中,医疗AI的责任归属主要涉及两个维度:
医疗侵权责任:根据《民法典》和《医疗事故处理条例》,医疗机构及医务人员因过失造成患者损害的,应承担赔偿责任。关键在于判断是否存在"过失"。
产品侵权责任:如果AI系统本身存在缺陷(如算法设计缺陷、数据训练偏差等),则适用产品责任法,由AI产品的生产者或销售者承担责任。
然而现实是:大多数医疗事故很难明确区分是"医生操作不当"还是"AI系统缺陷"。
以前文提到的肺癌误诊案例为例,法院判定医院承担70%、AI供应商承担30%的责任,其背后的法律逻辑是:
但这样的判决引发了新的问题:
美国FDA的动态监管尝试
2021年,FDA提出了针对AI/ML(机器学习)医疗器械软件的监管框架,核心思想是"基于算法变更的分级管理":
这一框架试图解决AI系统"持续学习"的特性与传统医疗器械"固定标准"监管之间的矛盾。但截至目前,FDA仍未完全明确:当AI在实际应用中通过学习产生的诊断错误,责任由谁承担?
欧盟的《AI法案》探索
欧盟在2024年通过的《人工智能法案》中,将医疗AI归为"高风险AI系统",要求:
这些措施在一定程度上为责任分担提供了缓冲,但同时也大幅提升了医疗AI的合规成本。
日本在这方面走在了前列。2023年,日本医师协会与保险公司合作,推出了专门针对AI辅助诊疗的混合责任险:
这一机制的优势在于:
NMPA在2022年发布的《人工智能医疗器械注册审查指导原则》中,首次明确要求AI系统提供"可解释性报告"。但目前的问题是:
一个可行的方向是借鉴金融科技领域的经验,建立分层解释机制:
当前医疗AI的最大问题,是被简单地"插入"到现有医疗流程中,而没有真正重构工作流。
传统模式:患者→检查→医生独立判断→出具报告 简单叠加AI后:患者→检查→AI分析→医生复核AI结果→出具报告(医生工作量增加) 理想的人机协作模式:患者→检查→AI初筛+风险分层→高风险病例由资深医生精准复核,低风险病例快速通过→动态质控与反馈循环
这种模式的关键是将AI从"诊断工具"转变为"分诊工具",让AI承担初步筛查和风险评估,医生聚焦于疑难复杂病例,从而在提高效率的同时,也明确了责任边界:

回到本文开头的数据:GPT-4的医疗诊断准确率为52.1%,接近非专家医生。但这个数字有多大意义?
实际上,在医疗领域,准确率永远不是AI的唯一评价标准。更重要的是:
目前的大语言模型在医疗应用中最大的问题,不是"不够准确",而是**"幻觉"(Hallucination)问题**——AI会自信地给出错误答案,而且很难被识别。这对医疗这样的高风险领域来说,比单纯的准确率不足更加危险。
截至2023年底,中国NMPA批准了73款AI医疗器械产品上市,而美国FDA批准的AI/ML医疗器械超过200款。这一差距背后,既有技术发展水平的因素,也反映了监管理念的差异。
中国采取的是**"审慎监管"策略,强调上市前的充分验证;美国则更倾向于"动态监管"**,允许产品在实际应用中持续改进。两种模式各有利弊:
一个可能的平衡点是:根据风险等级实施分类监管——对于辅助性、非决策性的AI应用(如医学影像的自动标注),可以采取快速审批通道;对于直接影响诊疗决策的AI系统,则需要更严格的临床验证和上市后监测。
医疗AI的未来,不在于它能否达到100%的诊断准确率——这在医学上本就是不现实的期待。真正的关键在于:我们能否建立一套合理的制度框架,让技术创新与患者安全、医生权益、法律清晰性并行不悖。
当AI误诊,不应该只有一个简单的答案"谁来买单",而应该追问:
只有当这些问题都有了清晰的答案,医疗AI才能真正从实验室走向临床,从技术演示走向规模应用。
在这个过程中,我们需要的不是对AI的盲目乐观,也不是对法律风险的过度恐惧,而是一种**"制度清醒"**——用完善的法律制度、保险机制、技术标准来护航医疗AI的健康发展,让技术真正服务于人,而不是成为新的不确定性来源。
毕竟,医疗的本质是对生命的敬畏。无论技术如何进步,这一点永远不应改变。
参考文献与数据来源:
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。