【TechCrunch 2026年1月16日讯】AI与医疗的融合正迎来关键讨论期。1月13日,多篇行业访谈与研究显示,全球多数医生认可AI在医疗领域的辅助作用,认为其能缓解行政负担、提升诊断效率,但对AI以聊天机器人形式直接面向患者提供健康建议持谨慎态度。这一观点与OpenAI近期推出的ChatGPT Health聊天机器人形成鲜明对比,也暴露出医疗行业在“技术创新”与“患者安全”之间的深度考量——医生们普遍认为,AI可做“助手”,却难成“对话诊疗主体”。
一、医生态度分化:AI辅助获认可,聊天机器人存隐忧
在临床实践中,医生们已切身感受到AI的价值,但当AI试图直接与患者对话时,行业担忧集中爆发。这种分化态度源于AI在不同医疗场景中的表现差异。
1. 认可AI的辅助能力:解放医生,提升效率
多位医生与行业研究者表示,AI在“非诊疗决策”环节的作用已得到验证,尤其能缓解医生的行政与标准化工作压力:
-
行政任务减负:斯坦福大学医学教授、首席数据科学家Nigam Shah指出,初级保健医生约50%的时间被病历撰写、保险授权申请等行政工作占据,导致接诊量受限(部分医院初诊等待时间长达3-6个月)。而AI工具(如斯坦福研发的ChatEHR)可嵌入电子病历系统,自动提取医患对话关键信息、整理检查报告,帮助医生节省30%以上的文书时间,间接增加接诊量;
-
标准化诊疗支持:Anthropic近期推出的Claude for Healthcare,能自动处理保险“事前授权申请”——医生仅需上传患者病情摘要,AI即可生成符合保险要求的申请报告,将单份申请处理时间从30分钟缩短至5分钟。Anthropic首席产品官Mike Krieger透露,该工具已在多家医院试点,帮助医生减少重复劳动;
-
知识补充与预警:AI可实时调取最新临床指南与研究文献,为医生提供参考。例如北京儿童医院的“福棠·百川”儿科大模型,能在会诊时提示罕见病鉴别要点,其建议与专家结论吻合度超85%,尤其能帮助基层医生拓宽诊疗思路。
2. 反对AI聊天机器人直接服务患者:幻觉与安全风险突出
尽管AI辅助工具受好评,但医生们对AI聊天机器人(如ChatGPT Health)直接面向患者的模式提出三点核心担忧:
-
“幻觉”导致错误建议:OpenAI的GPT-5模型在医疗场景中仍存在较高“幻觉率”(Vectara评估显示其幻觉风险高于谷歌、Anthropic同类模型)。外科医生、iMerit公司AI医疗负责人Sina Bari分享了真实案例:一名患者因ChatGPT声称某药物“有45%肺栓塞风险”拒绝用药,事后发现该数据源自结核病患者小众研究,与患者病情完全无关;
-
数据安全与合规隐患:ChatGPT Health允许用户上传病历、同步健康App数据,但这类数据传输存在合规漏洞。数据防泄漏公司MIND联合创始人Itai Schwartz指出,多数AI聊天机器人并非HIPAA(美国健康保险流通与责任法案)合规主体,患者敏感医疗数据可能从“合规医疗机构”流向“非合规平台”,存在泄露风险;
-
替代医患沟通,丧失人文关怀:北京儿童医院院长倪鑫强调,医疗的核心是“人与人的连接”——医生在问诊中不仅获取病情信息,更能通过沟通缓解患者焦虑、传递治疗信心,而AI聊天机器人无法复制这种“温度”。例如儿童患者就医时,医生的安抚能显著提升治疗配合度,这是纯文字对话无法实现的。
二、行业现状:AI聊天机器人使用普遍,监管与标准待完善
尽管医生担忧重重,但AI聊天机器人在患者端的使用已形成规模,行业面临“需求存在但规范缺失”的尴尬处境。
1. 患者依赖度高:超2.3亿人每周用AI咨询健康问题
数据显示,全球每周有超过2.3亿人通过ChatGPT等AI工具咨询健康问题,远超传统在线问诊平台的用户量。这种趋势的背后,是患者对“即时医疗咨询”的需求——当无法快速预约医生时,AI成为“临时替代品”。Gradient风投合伙人Andrew Brackin分析:“AI聊天机器人是‘用户倒逼’的产物,患者需要快速获取健康建议,而现有医疗资源无法满足,这也是OpenAI推出ChatGPT Health的核心原因。”
但这种“依赖”暗藏风险。2025年美国曾发生多起AI误诊事件:某患者因AI误判“肺结节为良性”延误治疗,某糖尿病患者因AI错误调整胰岛素剂量导致低血糖昏迷。这些案例让医生群体更坚定“反对AI直接诊疗”的立场。
2. 监管滞后:合规边界模糊,责任认定难
目前全球对AI医疗聊天机器人的监管仍处于“空白期”:
-
合规标准缺失:美国尚未明确AI聊天机器人的HIPAA合规要求,欧盟《人工智能法案》虽将医疗AI列为“高风险”类别,但未针对聊天机器人制定具体规则;
-
责任认定模糊:若AI给出错误建议导致医疗事故,责任该由患者、AI公司还是推荐医生承担?目前尚无明确法律界定。例如某患者因遵循ChatGPT Health的用药建议出现过敏,最终无法确定追责对象,只能自行承担后果;
-
数据使用不透明:多数AI聊天机器人未明确告知用户“数据是否用于训练”“存储期限多久”。尽管ChatGPT Health承诺“聊天数据不用于模型训练”,但患者仍无法确认数据是否会被用于其他商业目的(如定向推送健康产品广告)。
三、未来方向:AI定位“超级助手”,构建“人机协同”模式
医生群体与行业专家普遍认为,AI在医疗领域的正确路径是“辅助而非替代”,需通过技术优化、制度规范与教育改革,构建“人机协同”的良性生态。
1. 技术层面:聚焦“减少幻觉”与“数据安全”
-
提升模型可信度:通过高质量医疗数据训练与“溯源机制”减少AI幻觉。例如北京协和医院与中科院自动化所研发的“协和·太初”罕见病大模型,整合300万份权威病历与指南,能标注建议的参考文献来源,若模型生成错误结论,医生可通过溯源快速识别;
-
强化数据加密与合规:AI工具需通过HIPAA、GDPR等合规认证,采用端到端加密技术保护数据传输,明确数据使用范围与存储周期。例如Anthropic的Claude for Healthcare仅在“医生授权”的前提下处理数据,且所有操作可追溯、可审计。
2. 制度层面:明确AI边界,建立准入与追责机制
-
划定AI使用范围:国家卫健委2025年文件强调,AI不得替代医生进行诊疗决策、开具处方。例如湖南省医保局明确“严禁AI自动生成处方”,互联网医院需由医生本人完成问诊与开方;
-
建立AI医疗准入标准:AI工具需通过“临床有效性测试”与“安全性评估”才能进入医院,例如北京天坛医院引入的“急诊卒中AI系统”,需在1000例患者中验证“缩短救治时间且无误诊”后,才正式投入使用;
-
完善责任认定规则:明确“AI辅助-医生决策”的责任划分——AI提供建议,医生最终判断,若因医生未甄别AI错误导致事故,由医生承担责任;若因AI本身缺陷(如未标注数据局限性)导致错误,由AI公司承担赔偿。
3. 教育层面:培养“懂AI的医生”,避免能力退化
-
将AI应用纳入医学教育:医学院需开设“AI医疗应用”课程,让学生掌握AI的适用场景与局限性。例如海南医科大学在临床课程中加入“AI辅助诊断实训”,学生需先独立分析病例,再对比AI建议,培养“批判性使用AI”的能力;
-
加强在职医生AI培训:医院定期组织AI工具培训,帮助医生学会“利用AI提升效率,而非依赖AI”。例如复旦大学附属华山医院要求年轻医生“先用AI初筛病例,再独立验证”,通过这种模式保留医生的诊断思维能力。
结语:AI医疗的核心是“服务患者”,而非“技术炫技”
医生群体对AI的态度,本质是对“医疗本质”的坚守——技术应服务于“提升诊疗质量、改善患者体验”,而非追求“替代人类”。AI聊天机器人的争议,提醒行业在拥抱创新时需保持理性:既要看到AI缓解医疗资源紧张、提升效率的价值,也要警惕其可能带来的安全风险与人文缺失。
未来,AI与医疗的理想关系是“协同”:AI处理标准化工作(如文书、初筛),医生专注复杂决策与医患沟通,二者共同为患者提供“高效且有温度”的医疗服务。正如Sina Bari医生所说:“我们不反对AI,我们反对的是‘让AI替代医生思考’——医疗的灵魂永远是医生的专业判断与对生命的敬畏。”
目前,OpenAI尚未针对医生群体的担忧调整ChatGPT Health的功能,监管机构也未出台针对性政策。AI医疗聊天机器人能否在“满足患者需求”与“保障医疗安全”之间找到平衡,仍需行业、监管与公众的共同探索。