谷歌下线部分医疗类AI概览:因肝功能检测信息误导用户,变体查询漏洞仍存

AI 资讯7小时前发布 dennis
0

【TechCrunch 2026年1月13日讯】医疗健康信息的准确性再引关注。继英国《卫报》调查指出谷歌搜索的AI概览(AI Overviews)功能在回应部分医疗查询时提供误导性信息后,谷歌已悄然移除“肝脏血液检测正常范围”“肝功能检测正常范围”等关键词的AI生成摘要。但TechCrunch实测发现,仅需微调搜索词(如“lft reference range”),仍可能触发相关AI回答,暴露筛选机制漏洞。此次调整不仅引发对医疗类AI信息安全性的讨论,更让外界质疑谷歌在健康搜索领域的内容审核能力。

一、事件导火索:“一刀切”医疗数据引健康风险

《卫报》的调查是此次调整的直接原因。其在1月上旬发现,当用户搜索“肝脏血液检测的正常范围是多少”时,谷歌AI概览会直接呈现一组固定数值,却完全未提及国籍、性别、年龄、种族等关键影响因素——例如成年人与儿童的肝功能指标参考值差异可达30%,欧美与亚洲人群的正常范围也存在统计学区别。这种“笼统回答”可能导致用户误判健康状况:

  • 漏判风险:若一位65岁亚裔女性的检测结果略高于AI给出的“通用正常上限”,但实际处于该年龄段人群的合理区间,可能因AI信息产生不必要的焦虑;

  • 误判风险:反之,青少年若检测值接近“通用正常下限”,可能被AI误导认为“指标正常”,实则已低于该年龄段健康标准,延误潜在肝病的早期干预。

英国肝脏慈善机构(British Liver Trust)传播与政策总监凡妮莎·赫布迪奇(Vanessa Hebditch)直言:“肝功能指标不是‘统一答案’,忽略个体差异的AI回答可能带来健康隐患。谷歌下线相关功能是进步,但这只是‘治标不治本’。”

二、调整进展:部分关键词下线,变体查询仍有漏洞

面对质疑,谷歌在1月10-11日期间完成了部分调整,但执行过程存在明显“不彻底性”:

1. 明确下线的关键词

《卫报》确认,以下两类核心查询的搜索结果中,AI概览模块已完全消失:

  • 完整英文表述:“what is the normal range for liver blood tests”(肝脏血液检测正常范围)、“what is the normal range for liver function tests”(肝功能检测正常范围);

  • 对应中文查询:国内用户搜索“肝脏血液检测正常范围”“肝功能指标参考值”时,原位于搜索结果顶部的AI摘要也已移除,默认显示传统网页链接(如医院官网、医学科普平台内容)。

2. 未封堵的“漏洞”

TechCrunch在1月11日下午(《卫报》报道发布后4小时)实测发现,若使用缩写、简写或同义词搜索,仍能触发AI概览:

  • 输入“lft reference range”(LFT为肝功能检测“Liver Function Test”的缩写),搜索结果顶部仍会出现AI生成的“参考范围总结”,内容与此前被指误导的表述高度相似;

  • 尝试“liver blood test normal values by age”(按年龄划分的肝脏血液检测正常值),AI虽提及“年龄影响”,但未给出具体分年龄段数据,仅笼统建议“咨询医生”,实用性大打折扣。

此外,谷歌仍保留“AI模式提问”入口——用户点击搜索框下方的“以AI模式查询”,仍可获得AI生成的医疗回答,相当于“默认关闭但手动可触发”,进一步削弱了调整的实际效果。

三、谷歌回应:回避具体问题,强调“广泛改进”

对于此次功能调整,谷歌的回应态度模糊,未正面解决外界核心质疑:

  • 拒绝细节说明:发言人仅表示“不会就搜索中的单个移除案例发表评论”,未解释为何仅针对部分关键词调整,也未说明变体查询漏洞何时修复;

  • 辩解信息准确性:同时强调“内部临床医生团队已审核相关查询,多数信息准确且有高质量网站支撑”,暗示被下线的AI回答并非“完全错误”,只是缺少背景说明;

  • 提及过往投入:回顾2025年曾推出“医疗搜索优化计划”,包括引入“健康专属AI模型”“权威医疗机构数据校验”等功能,试图证明对医疗信息准确性的重视,但未说明此次问题为何仍会出现。

截至发稿,TechCrunch向谷歌提出的“变体查询漏洞处理时间表”“医疗AI回答的审核标准”等问题,尚未获得进一步回应。

四、行业争议:医疗AI信息审核,“堵漏洞”不如“建标准”

此次事件暴露出科技公司在医疗信息领域的共性困境——AI生成内容的“准确性”与“安全性”如何平衡,行业专家与机构对此分歧明显:

1. 支持方:下线是“负责任的妥协”

部分医疗信息化专家认为,谷歌的调整是必要的风险控制。北京大学人民医院信息中心主任崔丽丽表示:“医疗信息的特殊性在于‘差之毫厘,谬以千里’,AI目前还无法完全掌握临床诊断中的个体差异逻辑,尤其是罕见病、特殊人群的指标解读。在技术未成熟前,下线高风险查询的AI回答,能避免用户被误导。”

2. 质疑方:“头痛医头”难解决根本问题

赫布迪奇代表英国肝脏慈善机构提出更尖锐的批评:“谷歌只是关闭了‘肝脏检测范围’这一个关键词的AI回答,但还有无数医疗查询(如‘血糖正常范围’‘血压标准值’)存在同样的‘一刀切’问题。这种‘单个处理’的方式,本质是回避医疗AI内容审核的系统性缺陷。”

行业数据显示,2025年谷歌搜索中,“医疗健康类查询”占比达18%,其中约30%会触发AI概览。若仅针对个别关键词调整,未建立统一的医疗AI回答标准,类似误导风险仍会在其他健康领域出现。

五、用户应对指南:如何安全获取医疗信息?

针对当前谷歌医疗搜索的调整,健康领域专家建议用户采取以下措施,降低信息误导风险:

  1. 优先选择权威渠道:搜索医疗问题时,认准带有“官方认证”标识的医院官网(如三甲医院域名含“.gov.cn”或“.hospital”)、医学学会平台(如中华医学会、美国 Mayo Clinic),或国家卫健委下属的健康科普平台;

  2. 警惕“绝对化”表述:若搜索结果中出现“正常范围就是XX-XX”“所有人都适用”等表述,需谨慎对待,尤其涉及检测指标、用药建议时,必须结合自身年龄、性别、病史综合判断;

  3. AI回答仅作“初步参考”:若触发AI医疗回答,需注意其底部是否标注“信息来源”,若未提及具体研究或机构,不可将其作为健康决策依据,最终需咨询专业医生;

  4. 使用精准查询词:搜索时主动补充个人特征,如“60岁男性 肝功能检测正常范围”“妊娠期 血糖标准值”,能帮助搜索引擎筛选更贴合自身情况的结果。

结语:医疗AI的“准确性红线”,该由谁来划定?

谷歌此次下线部分医疗类AI概览,看似是一次“应急调整”,实则折射出科技巨头在医疗信息领域的权责困境——当AI成为大众获取健康知识的重要途径,其内容审核标准该如何制定?是由科技公司自行把控,还是需引入医疗监管机构参与?

目前,欧盟已在《数字健康战略》中提出“医疗AI内容必须经过临床验证”的要求,美国FDA也在推进“医疗信息生成式AI备案制度”。而谷歌尚未明确是否会将医疗AI回答纳入更严格的第三方审核体系。正如赫布迪奇所言:“用户信任谷歌能提供可靠信息,这种信任不该被‘漏洞百出’的AI回答消耗。建立医疗AI的‘准确性红线’,比临时下线个别功能更重要。”

未来,随着AI在健康领域的应用进一步深入,如何平衡“信息获取效率”与“医疗安全”,将成为所有科技公司必须面对的长期课题。

© 版权声明

相关文章