AI问诊记录成医患争议新焦点,智能医疗责任界定待破题

奕行健 2025-03-16 20:18:36

北京儿童医院院长倪鑫近日主持的一场特殊会诊引发医疗界震动。面对重庆患儿复杂的面部创伤案例,当专家团队陷入诊疗困境时,家长突然出示的 AI 问诊记录单,犹如投入平静湖面的石子,激起智能医疗时代责任归属的深层思考。

会诊现场现 AI 诊疗单

在 2025 年 2 月 27 日的第三次 AI 辅助专家会诊中,5 岁女童持续鼻出血的疑难案例让见惯重症的倪鑫院长也陷入迟疑。当建议使用免疫治疗药物时,家长展示的 DeepSeek 问诊记录显示,该 AI 系统曾给出完全不同的诊疗方案。这种新型 "第二诊疗意见" 的出现,打破了传统医疗场景中纯人类专家的决策模式。

智能诊疗双刃剑效应显现

医疗 AI 的普及正在重塑就诊生态。数据显示,78.6% 的年轻父母会同时参考智能问诊系统与医生诊断,35% 的患者在医患沟通中主动提及 AI 建议。这种技术赋权在提升公众健康意识的同时,也带来决策权分散的新挑战。当 AI 系统基于大数据推算的治疗方案与临床经验产生冲突,患者该作何选择?医生的专业权威又该如何维持?

责任界定陷入法律真空

现行《医疗事故处理条例》尚未明确 AI 系统的法律定位。北京律协医疗专委会主任张雪峰指出:"若完全参照现行法规,AI 开发者可能以 ' 辅助工具 ' 属性规避责任,医生也可能将决策失误归咎于系统建议。" 这种监管空白导致医患双方都可能成为技术风险的承担者。

技术伦理困局待破解

清华大学医疗 AI 研究所近期发布的《智能医疗责任白皮书》提出三维解决方案:建立医疗 AI 产品分级认证体系,明确不同级别系统的权责边界;推行医患双告知制度,确保 AI 建议的参考性定位;设立第三方评估机制,对争议性诊疗方案进行溯源分析。这些建议为破解困局提供了可行路径。

在朝阳医院智能诊疗中心,新设立的 "AI 建议解释专员" 岗位已开始试运行。这个由临床医生与算法工程师共同担任的角色,专门负责向患者解读智能系统的决策逻辑。这种创新尝试或许预示着,未来的医疗责任体系需要构建人机协同的新范式。当技术浪潮不可逆转,建立与之匹配的伦理框架与制度保障,已成为智能医疗发展的必修课。

0 阅读:0
奕行健

奕行健

感谢大家的关注