法国女子被ChatGPT诊断患血癌,去医院一查竟是真的

法国巴黎一名女子——27岁的加恩赖特,长期出现夜间盗汗、皮肤搔痒、体重下降等问题,近期更恶化到胸痛、持续疲惫。加恩赖特打开人工智能聊天软件ChatGPT,输入症状后,被判断“罹患血癌”。她起初拒绝相信,没想到去医院接受详细检查,真的确诊血癌。

加恩赖特

2024年1月,加恩赖特的父亲因大肠癌病逝后,她开始暴瘦、盗汗、皮肤搔痒。但当时血检结果一切正常,就连医师都认为,可能是她“悲伤过度影响健康”。

随着时间流逝,加恩赖特逐渐走出丧父之痛,但症状仍没有显著好转,“我问了ChatGPT,它说我可能有血癌。在抱着怀疑的态度之下,我一开始并没理会”。

去年年底,加恩赖特明显感觉情况恶化。她今年1月再次前往医院看病,确诊霍奇金淋巴瘤,也就是一种血癌。

加恩赖特坦言,她一开始以为这些都是焦虑引发的症状,不仅对ChatGPT的回复非常怀疑,就连身边友人听了也不太相信,所以一直忽略警告。加恩赖特如今已开始接受化疗。

AI医生看病靠谱吗?

尽管AI在诊断方面表现出色,但误诊的风险依然存在。AI的运行依赖于准确且规范的信息输入,如果数据存在偏差或者算法存在缺陷,就可能导致误诊。

更关键的是,AI目前无法替代人类医生的临床经验和直觉。对于一些复杂病例,医生的经验依旧不可或缺。AI很擅长处理标准化的医疗数据,却难以捕捉患者一声迟疑的叹息、额角的冷汗等非结构化信息。

研究数据显示,目前AI的误诊率约为2%-5%,主要集中在精神类疾病和复杂慢性病领域。

AI目前所获得的“执医”资格,并不包括独立坐诊能力。面对‘AI医生’的问诊,我们应该给它一个机会。对于诊断结果,我们不必完全依赖,可以将其跟医生的诊断结果对比,再结合自身的实际情况进行综合判断。

AI是否会导致医生“下岗”吗?

早在2022年,国家卫生健康委和国家中医药局联合发布《互联网诊疗监管细则(试行)》,规定医疗机构开展互联网诊疗活动,处方应由接诊医师本人开具,严禁使用人工智能等自动生成处方。这意味着,目前AI只能提供诊疗建议,最终的诊疗方案仍需要医生本人把关。

“医疗领域有自身的特殊性,患者的安危永远是第一位的。”医学类新媒体“健康界”执行总编辑郑宇钧从几年前就开始关注“AI+医疗”的话题,他认为,“理想的协作模式应该是‘人类医生主导的AI增强诊断’。无论多大程度使用AI,第一责任人都只能由真人医生来承担。”

在北京清华长庚医院医学数据科学中心主任李栋看来,虽然AI能依托大量数据在多场景的智能辅助诊断等方面“快速上手”,但目前还无法像医生那样,基于临床经验形成专业清晰的诊疗逻辑,达到资深临床医生的诊断水平。

AI儿科医生的研发证实了这一点。百川智能相关负责人告诉记者:访谈300余位儿科专家,正是要让他们把自己的诊疗思路“教给AI”。“比如,看到患者首先考虑什么?为什么要这样诊疗?孩子哪些表现对应哪些症状和病因……请他们随时想、随时说”。

另外,多位专家不约而同地提到,当AI的能力边界快速拓展,医生在人文关怀方面的价值没有被弱化,反而更加凸显。

谁为“算法黑箱”买单?

AI看诊背后的法律风险和伦理问题也不容忽视,科技财经作家醒客介绍,目前法律上在AI看病方面,还存在盲区。“如果用AI看病的时候,一旦人治坏了,是由谁来负责。”另外,他提到,AI看病也存在伦理和隐私方面的问题。“所以我们现在用大模型的时候,都要提高警惕性。”醒客提示。

对于涉AI医疗纠纷的权责问题,北京嘉潍律师事务所合伙人赵占领分析,如果AI反馈的结果是不准确的,用户又完全相信它的结果去用药或者治疗,在这种情况下,遭受健康甚至生命方面的威胁的话,最关键的一点就在于AI软件是否明确告知用户输出的结果只能作为一种参考的意见,不能作为诊断的依据。“如果他有明确的提示和说明,那么AI软件的经营者对此是不承担相应的法律责任;反之,它如果没有尽到这样的提示义务,AI经营者是需要承担相应的法律责任。”

(羊城晚报·羊城派综合自潇湘晨报、人民日报海外版、北京新闻广播半岛都市报返回搜狐,查看更多

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
大家都在看
我来说两句
0人参与, 0条评论
登录抢首评