谷歌移除部分AI健康摘要,调查发现存在“危险”缺陷

2026/1/13·来源:Ars Technica
谷歌AI Overviews健康AI生成式AIAI安全

谷歌移除AI健康摘要部分内容,因调查发现其提供虚假信息。AI在健康查询中给出错误建议,可能误导患者延误治疗。谷歌仅禁用部分问题,其他潜在有害答案仍可访问。

谷歌在周日移除了其AI Overviews功能中的部分健康摘要,此前《卫报》的一项调查发现,虚假和误导性信息可能将用户置于风险之中。

调查显示,谷歌的生成式AI功能在搜索结果顶部提供不准确的健康信息,可能导致重病患者错误地认为自己健康状况良好。

谷歌禁用了特定查询,例如“肝功能检查正常范围是什么”,此前《卫报》联系的专家指出这些结果具有危险性。报告还强调了一个关于胰腺癌的关键错误:AI建议患者避免高脂肪食物,这一建议与维持体重的标准医疗指导相矛盾,可能危及患者健康。

尽管有这些发现,谷歌仅停用了肝功能测试查询的摘要,其他潜在有害答案仍可访问。

调查发现,搜索肝功能检查正常值会生成缺乏必要背景的原始数据表(列出ALT、AST和碱性磷酸酶等特定酶),AI功能也未能根据年龄、性别和种族等患者人口统计数据调整这些数值。专家警告,由于AI模型对“正常”的定义往往与实际医疗标准不同,患有严重肝病的患者可能错误地认为自己健康并跳过必要的后续护理。

英国肝脏信托基金会的传播和政策总监Vanessa Hebditch告诉《卫报》,肝功能检查是一系列不同的血液测试,理解结果“很复杂,涉及的内容远不止比较一组数字”。她补充说,AI Overviews未能警告,即使患有严重肝病并需要进一步医疗护理,这些测试也可能得出正常结果。“这种虚假的保证可能非常有害,”她说。

谷歌拒绝对《卫报》就具体移除事件发表评论。公司发言人告诉The Verge,谷歌投资于AI Overviews的质量,特别是健康主题,并称“绝大多数提供准确信息”。发言人补充说,公司的内部临床医生团队审查了分享的内容,“发现在许多情况下,信息并非不准确,并且得到高质量网站的支持。”

背景阅读

生成式人工智能在搜索引擎中的应用是近年来科技行业的重要发展趋势。这类技术基于大型语言模型,能够理解自然语言查询并生成连贯的文本摘要。在健康信息搜索领域,传统搜索引擎主要提供网页链接列表,而生成式AI旨在直接提炼答案,提升获取信息的效率。 该技术的发展源于自然语言处理和机器学习领域的长期积累。早期系统如IBM的Watson曾展示在医疗信息处理方面的潜力。近年来,随着Transformer架构和预训练大模型的突破,科技公司开始将生成式AI深度集成到核心产品中。谷歌于2024年5月正式推出“AI Overviews”功能,将其置于传统搜索结果顶部,标志着搜索引擎从信息检索向答案生成的重要转变。 健康信息搜索具有高度敏感性和专业性。用户在线搜索医疗信息的行为非常普遍,但网络信息质量参差不齐。因此,提供准确、可靠的健康信息一直是搜索引擎面临的挑战。行业现状是,各大科技公司在部署AI摘要功能时,均强调在健康等高风险领域设置了额外保障措施,包括引用权威来源、添加免责声明等。然而,生成式AI固有的“幻觉”问题——即模型可能生成看似合理但不准确的信息——在医疗等精确性要求极高的领域构成了特殊风险。当前,如何确保AI生成内容的准确性、上下文相关性和安全性,仍是整个行业持续研究和改进的重点课题。

评论 (0)

登录后参与评论

加载评论中...