近日,一位知名医生的一句“我拒绝将人工智能引入医院电子病历系统”引发热议。 “AI+医疗”的应用有哪些局限性?如何化解“AI+医疗”的风险和伦理困境?就此话题,经济新闻记者采访了多位业内专家。专家认为,“AI+医疗”的核心是“扬长避短”。需要明确的是,人工智能的定位是“助手”,绝不能替代医疗专业人员。同时,要加快补齐监管缺口,构建充满活力、跨部门、协同、全链条的监管机制。 “人工智能+医疗”的应用限制以“拒绝将人工智能引入病历系统”而受到关注,其核心是反对年轻医生从培训阶段开始系统性依赖人工智能,担心年轻医生临床思维训练会受到阻碍,甚至被人工智能结论误导。百川智能小川创始人兼CEO王小川坦言:“医生和患者都认同以患者利益为先的原则。人工智能发展很快,在某些场景下,‘人工智能+医生’明显优于单个医生,这也符合医学规律。因为担心抑制‘医生成长’而限制人工智能的使用,可能会限制对患者最有利的医疗途径。”在王小川看来,如果AI真正能够帮助患者,就不应该再拒绝它的使用。换句话说,医生的成长不能以牺牲现有患者为代价。至于担心人工智能会削弱年轻医生的能力,解决问题的关键在于改变他们对人工智能使用的思考方式。人工智能不应该让医生纠正人工智能错误,而应该提醒他们的临床思维并验证诊断鼻子和治疗结果,从而降低误诊和误诊的风险。这样,患者受益的同时,医生也成长。业界认为,这场行业辩论的焦点将集中在人工智能在医疗保健流程中应用的局限性、劳动力培训和问责制等核心问题上。北京中医药大学健康法研究与创新转化中心主任邓勇接受经济参考报记者采访时表示,争论的核心是医疗行业固有的“安全第一”本质与人工智能技术“快速迭代”发展特点之间的矛盾。医疗健康直接关系生命健康,容错率较低,而AI则存在算法黑匣子、数据漂移等不确定性,各方容忍程度不同。风险。邓勇认为,冲突主要集中在三个方面。首先是价值观问题:是优先发展医生的能力,还是优先保障患者的诊疗利益。二是角色定位问题:是把人工智能作为效率工具,还是对“关键”诊疗不信任。三是风险管控问题:是先放开应用,再完善监管,还是先制定规则,再有序推进?首都医科大学附属北京安贞医院心脏超声医学中心主任何益华表示,“关于使用还是保护‘AI+医疗’争论的关键不是偏向某一方,而是‘扬长避短’。”人工智能“辅助而非替代”的定位需要明确。近年来,随着技术的迭代,越来越多的AI产品被引入医院临床场景,从影像辅助医疗诊断延伸到智能预访、随访管理、手术辅助、智能监测、心理服务等,环节多元化,产品合规性和临床采用率显着提升。中邮证券研报显示,截至2025年12月5日,共有207个人工智能医疗器械获得三类医疗器械注册证。人工智能在生物制药、诊断辅助和医疗服务等领域正在进入成熟阶段。 2024年11月,国家卫生健康委、国家中医药管理局、国家疾病预防控制总局联合发布《医疗行业人工智能应用场景参考指南》,确定了四个领域共84个“人工智能+医疗”应用场景主要领域和13个子行业。 2025年10月,国家卫健委等五部门发布《关于促进和规范“人工智能+医药健康”应用发展的实施意见》,明确了八个主要推动方向。 “‘AI+健康’是医疗技术数字化升级的必然趋势。”其本质是利用人工智能技术优化医疗服务流程,弥补医疗资源的不足。 “这绝不是替代医生,而是对医疗体系的重要补充。”邓勇说。他还认为,在临床场景中,至少在现阶段,AI“辅助工具”的核心限制应该是“建议权,而不是决定权”。诊断、治疗方案和治疗决定应由医生根据整体判断做出。 “避免过度依赖的关键何益华表示,医院一方面应该根据人工智能产品的不同场景、不同类型,制定差异化的使用规范和操作流程,要求医生对部分人工智能结果进行审核,将人工智能建议作为有力的助手,而不是盲目地“直接采纳”。另一方面,在人力资源开发方面,需要加强对疾病的临床思维和认知推理能力的开发。如果运用得好,人工智能不仅能让我们获得知识,还能让我们辩证地思考专家的专业知识。医学信息研究所医疗卫生法实验室主任曹彦林博士提出,更重要的是,它可以帮助医生提高批判性思维能力,让技术夯实专业基础,磨练核心能力。中国医学科学院院士。针对过度依赖人工智能的问题,应从制度约束、认知提升、技术压力、流程管理、评价监督等多方面构建“医生主动判断、人工智能支持转诊”的临床运用机制,让医生将人工智能作为工具而不是依赖,最终回归以医疗为中心的医疗保健本质。具有临床意识并响应个别患者的需求。可以直接复制。建立人工智能使用的“责任追究机制”。 “我们还将加强对人工智能产品设计的监管和标准化,确保临床使用的人工智能产品客观地用信息来标记,而不是进行定性判断。只需要要求所有系统时刻集成即可。需要解决“人工智能+医疗”的风险和伦理困境。在研究中rch报告中,中邮证券预计,“AI+医疗”行业人工智能解决方案的全球市场规模将从2022年的137亿美元增长至1553亿美元,2030年复合增长率达35.5%;到2030年,中国市场预计将达到168.3亿美元,该行业拥有爆发式增长机会。但不可忽视的是,AI+医疗仍存在商业化进程、道德伦理、监管风险等深层次问题。 “医疗AI产品的主要风险点是数据、算法和安全。”安全。邓勇表示,作为最根本的风险点,患者隐私信息等相关数据不仅存在因采集不规范、存储漏洞、未加密传输而大规模泄露的潜在风险,而且存在同质性严重、特定疾病数据缺失的困境,直接限制了医疗数据的使用范围。人工智能诊断和治疗。此外,邓勇认为,与算法相关的风险是根本性的。数据偏差造成的诊断和治疗偏差造成了某些人群的医疗不平等,算法决策逻辑无法解释的“黑匣子”问题使医生难以判断其结论的合理性,也难以进行有效验证。 “性能稳定性是最重要的风险点”人工智能的诊疗能力高度依赖数据和计算能力,复杂并发症、罕见疾病等非标准化临床场景很容易出现性能波动。 “算法迭代后未经彻底验证就发布,误诊或漏诊的医疗风险显着增加。”邓勇补充道,他认为“AI+医疗”会引发新的医学伦理问题。o 不知道AI诊断和治疗的逻辑。如果医生不明确沟通AI参与诊疗,就会侵犯患者的知情权,无权选择是否接受AI辅助诊疗。其次,AI训练数据往往来自高质量医疗资源高度集中的地区,使得算法更容易对罕见病、专科人群、基层患者产生偏见,导致诊疗服务分配不公平。此外,邓勇认为,“优质的人工智能医疗产品主要集中在一级机构,可以强化医疗资源‘强者恒强’的差异化,进一步拉大基层医院与三级医院的服务差距。”此外,过度依赖人工智能会弱化医患之间的面对面沟通和人文关怀,降低医患沟通效率。医疗服务走向“数据+算法”的无情过程,背离了医学的人性。三是医疗资源配置。如果AI产品价格过高,优质医疗资源的“数字鸿沟”,“关于AI技术”,何益华认为,这些挑战并非不可逾越,应通过技术优化和制度规制逐步改善,且不能因为伦理原因否定AI的价值。完善全链条动态监控。 “目前,我国的法律体系和监管标准已经确立了以医疗机构和医生为责任主体,人工智能为辅助工具,并明确了‘安全第一’和‘数据合规’的基本点,可以有效防范人工智能医疗的根本风险。但对于‘黑匣子’算法单一、不断迭代、复杂性,缺乏完善的动态管控机制。”AI医疗的责任链。”曹彦霖说。在何益华看来,面对快速重复的技术和复杂的临床场景,监管仍需加强几个方面。一是上市前产品的评价和审查;目前主要是针对具有独特AI技术的产品进行上市前审查,但在大型医疗模型的评价和监管方面还存在不足。第二,动态监测机制,AI算法在临床应用中会不断迭代优化,算法更新和使用后性能监测需要持续监测。第三,仍需要更详细的操作规范来保证隐私保护技术和系统、包含大量敏感信息的医疗数据包和人工智能训练数据的需求之间的关系,同时避免隐私泄露。医疗责任定义的特别规则应尽快引入算法审查和全过程监控。创建跨部门协同监控平台,整合医疗力量、网络信息、行业信息等部门,实现从输入到输出的全链条动态监控。加强对基层人工智能应用的监管,出台适合基层的人工智能产品标准,避免优质人工智能资源过度集中。 ”邓勇表示。具体来说,邓勇将首先根据人工智能医疗产品的风险等级简化审批流程,鼓励辅助影像检查、报告录入等低风险产品的测试申请,同时对高风险产品实行严格的准入标准,即作为辅助诊断和治疗方案建议。二是明确责任共担规则,明确诊断各方责任界限。三是搭建实时监测人工智能临床应用异常数据的风险预警平台,明确特定领域和场景来测试创新医疗人工智能产品,同时能够根据技术发展和应用反馈及时优化监管规则。
(编辑:刘鹏)

你也可能喜欢

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注