医生们认为人工智能在医疗保健领域可以发挥作用,但并不一定是指聊天机器人。
iMerit 的外科医生兼医疗保健领域领先的人工智能专家 Sina Bari 博士告诉 TechCrunch,ChatGPT 向一名患者推荐了一种药物,却误导了该患者。ChatGPT 向患者展示了一段对话记录,其中指出该药物有 45% 的肺栓塞风险。
巴里博士仔细检查后发现,这些信息仅针对一小部分结核病患者,与这位特定患者无关。他表示,这个例子说明了不加批判地使用通用人工智能聊天机器人提供健康建议的风险。
ChatGPT Health为何依然令人充满乐观
尽管存在这些情况,巴里博士对ChatGPT新增的健康功能表示欢迎,热情远大于担忧。他认为,将现有的人工智能健康对话实践规范化,并采取适当的安全措施来保护数据和用户至关重要。
ChatGPT Health 允许用户在一个独立、更私密的环境中进行健康对话,OpenAI 强调他们不会利用这些对话来训练模型。用户还可以上传健康记录或同步来自 Apple Health 和 MyFitnessPal 等应用的数据,以获得更个性化的回复。
隐私和监管问题
将健康数据与人工智能连接的可能性引发了新的问题。MIND联合创始人伊泰·施瓦茨警告说,敏感数据从符合HIPAA标准的系统转移到不符合HIPAA标准的服务提供商存在风险。他表示,监管机构将如何应对此类做法,值得关注。
尽管存在担忧,但数据显示,人工智能聊天机器人已经成为重要的信息来源:每周有超过 2.3 亿人使用 ChatGPT 来咨询健康相关问题。
人工智能应作为医生的辅助工具,而非替代者。
斯坦福大学医学教授、斯坦福医疗保健首席数据科学家尼甘·沙阿博士认为,比人工智能回答错误更大的问题是医疗保健系统漫长的等待时间。在美国,患者可能需要等待三到六个月才能见到初级保健医生。
在此背景下,沙阿博士认为人工智能在医疗保健领域具有更大的应用潜力。行政工作会占用医生一半的工作时间,这会直接减少他们能够诊治的患者数量。
斯坦福大学正在开发一套名为 ChatEHR 的系统,该系统可直接集成到电子健康记录中,使医生能够更快地获取关键的患者信息。早期用户表示,该系统减少了查找信息的时间,并允许医生与患者进行更直接的沟通。
Anthropic公司也在为医疗保健专业人员和保险公司开发人工智能工具。他们最近推出了Claude for Healthcare,该解决方案旨在减少诸如保险公司预先审批等行政流程所花费的时间。
技术与医学之间不可避免的张力
正如巴里博士所指出的,将人工智能引入医疗保健领域存在一个根本性的矛盾:医生对病人负有首要责任,而科技公司也以股东的利益为出发点行事。
“患者希望我们谨慎且持怀疑态度。“,”巴里博士说。这项预防措施是保护他们的关键。.”
























