医生Sina Bari是数据公司iMerit的执业外科医生和AI医疗保健负责人,他亲眼目睹了ChatGPT如何通过错误的医疗建议误导患者。Bari医生告诉TechCrunch,他最近遇到一位患者,当他推荐一种药物时,患者打印了一份ChatGPT的对话,称该药物有45%的肺栓塞风险。Bari医生进一步调查发现,这个统计数据来自一篇关于该药物在结核病特定亚组中影响的论文,并不适用于他的患者。
然而,当OpenAI上周宣布其专用聊天机器人ChatGPT Health时,Bari医生感到更多的是兴奋而非担忧。ChatGPT Health将在未来几周内推出,允许用户在更私密的环境中与聊天机器人讨论健康问题,他们的消息不会被用作底层AI模型的训练数据。Bari医生说:“我认为这很棒。这已经是正在发生的事情,所以将其正式化以保护患者信息并设置一些安全措施,将使患者使用起来更强大。”
用户可以通过上传医疗记录并与Apple Health和MyFitnessPal等应用同步,从ChatGPT Health获得更个性化的指导。对于注重安全的人来说,这立即引发了警示。数据丢失防护公司MIND的联合创始人Itai Schwartz告诉TechCrunch:“突然间,医疗数据从符合HIPAA的组织转移到不符合HIPAA的供应商。所以我很好奇监管机构会如何处理这个问题。”
但一些行业专业人士认为,事情已经无法挽回。现在,人们不再只是谷歌搜索感冒症状,而是与AI聊天机器人交谈——每周已有超过2.3亿人与ChatGPT讨论健康问题。投资健康科技的Gradient合伙人Andrew Brackin告诉TechCrunch:“这是ChatGPT最大的用例之一。因此,他们想为这些医疗保健问题构建一个更私密、安全、优化的ChatGPT版本,这很有道理。”
AI聊天机器人存在幻觉问题,这在医疗保健领域尤为敏感。根据Vectara的事实一致性评估模型,OpenAI的GPT-5比许多Google和Anthropic模型更容易产生幻觉。但AI公司看到了纠正医疗保健领域低效的潜力,Anthropic本周也宣布了一款健康产品。