医生认为AI在医疗保健中有用,但可能不适合作为聊天机器人

6 天前·来源:TechCrunch
OpenAIChatGPT HealthAI医疗隐私保护幻觉问题

OpenAI发布了ChatGPT Health,这是一个专为健康咨询设计的聊天机器人,允许用户上传医疗记录并同步健康应用。医生Sina Bari分享了一个案例,显示ChatGPT曾提供错误医疗建议,但他对ChatGPT Health的隐私保护措施表示支持。AI聊天机器人在医疗领域存在幻觉问题,但公司正努力通过专用产品来改善效率和安全性。

医生Sina Bari是数据公司iMerit的执业外科医生和AI医疗保健负责人,他亲眼目睹了ChatGPT如何通过错误的医疗建议误导患者。Bari医生告诉TechCrunch,他最近遇到一位患者,当他推荐一种药物时,患者打印了一份ChatGPT的对话,称该药物有45%的肺栓塞风险。Bari医生进一步调查发现,这个统计数据来自一篇关于该药物在结核病特定亚组中影响的论文,并不适用于他的患者。

然而,当OpenAI上周宣布其专用聊天机器人ChatGPT Health时,Bari医生感到更多的是兴奋而非担忧。ChatGPT Health将在未来几周内推出,允许用户在更私密的环境中与聊天机器人讨论健康问题,他们的消息不会被用作底层AI模型的训练数据。Bari医生说:“我认为这很棒。这已经是正在发生的事情,所以将其正式化以保护患者信息并设置一些安全措施,将使患者使用起来更强大。”

用户可以通过上传医疗记录并与Apple Health和MyFitnessPal等应用同步,从ChatGPT Health获得更个性化的指导。对于注重安全的人来说,这立即引发了警示。数据丢失防护公司MIND的联合创始人Itai Schwartz告诉TechCrunch:“突然间,医疗数据从符合HIPAA的组织转移到不符合HIPAA的供应商。所以我很好奇监管机构会如何处理这个问题。”

但一些行业专业人士认为,事情已经无法挽回。现在,人们不再只是谷歌搜索感冒症状,而是与AI聊天机器人交谈——每周已有超过2.3亿人与ChatGPT讨论健康问题。投资健康科技的Gradient合伙人Andrew Brackin告诉TechCrunch:“这是ChatGPT最大的用例之一。因此,他们想为这些医疗保健问题构建一个更私密、安全、优化的ChatGPT版本,这很有道理。”

AI聊天机器人存在幻觉问题,这在医疗保健领域尤为敏感。根据Vectara的事实一致性评估模型,OpenAI的GPT-5比许多Google和Anthropic模型更容易产生幻觉。但AI公司看到了纠正医疗保健领域低效的潜力,Anthropic本周也宣布了一款健康产品。

背景阅读

AI在医疗保健领域的应用正日益普及,从诊断辅助到个性化治疗建议。聊天机器人如ChatGPT已被广泛用于健康咨询,但面临幻觉和准确性挑战。幻觉是指AI生成不准确或虚构信息的问题,这在医疗环境中可能导致严重后果。为应对这些问题,公司如OpenAI和Anthropic正开发专用健康产品,强调隐私保护和数据安全。HIPAA是美国医疗信息隐私法规,确保患者数据安全。AI医疗工具的发展旨在提高效率,但需平衡创新与监管,确保患者安全。

评论 (0)

登录后参与评论

加载评论中...