一半几率“误诊”,研讨称 ChatGPT Health 难以辨认急症,专家忠告存在致命风险
2026-02-28 17:15:26
人工智能在医疗领域的应用正面临严峻的安全拷问。近日,据《Nature Medicine》发表的一项独立安全评估显示,OpenAI 旗下的 ChatGPT Health 在识别医疗紧急情况方面表现欠佳,甚至在超过一半的测试案例中低估了病情的严重程度。专家对此发出严厉警告,称这种技术缺陷可能导致本可避免的伤亡。
自今年 1 月推向市场以来,ChatGPT Health 被定位为用户管理医疗记录和获取健康建议的智能助手。据统计,全球每天有超过 4000 万 人向其咨询健康问题。然而,最新的研究结果却给这种“AI医疗热”浇了一盆冷水。
关键时刻“掉链子”:急症识别率不足五成研究团队构建了 60 个涵盖从轻微感冒到危及生命的真实患者案例,并将AI的建议与专业医生的临床判断进行对比。结果显示:
致命的误判:在所有需要立即送医的急症案例中,ChatGPT Health 竟有 51.6% 的概率建议患者留在家中或预约普通门诊。
呼吸衰竭仍建议“等待”:在一例典型的哮喘案例中,尽管系统识别出了呼吸衰竭的早期迹象,却依然给出了“继续观察”而非“立即就医”的错误指令。
严重的过度反应:与漏掉急症形成鲜明对比的是,在针对健康个体的模拟中,却有 64.8% 的人被建议立即就医。
“虚假安全感”成最大杀手伦敦大学学院的研究人员指出,这种表现极其危险。AI 带来的“虚假安全感”可能让患者错失黄金救治时间。更令人担忧的是,AI 极易受到误导——如果用户在提问时加入一句“朋友觉得不严重”,系统淡化病情的概率会瞬间激增近 12 倍。
行业呼吁:必须建立独立审计机制面对质疑,OpenAI 发言人表示欢迎此类独立研究,并强调模型仍在持续更新。但研究人员坚持认为,在 AI 深度介入医疗决策之前,建立明确的安全标准和独立审计机制已迫在眉睫。
对于普通用户而言,目前阶段的 AI 建议或许可以作为参考,但在面对胸痛、呼吸困难等疑似急症时,盲目听信 AI 而非求助于专业医生,代价可能是无法挽回的生命安全。
相关阅读
-
不会写代码也能用,OpenClaw若何帮通俗人脱节反复任务,提拔效率?深度解读 2026-03-09 14:22:05
-
比特币价格预测:2025 年底 15 万美元还是跌至 8.5 万?关键支撑位分析科技前沿 2026-03-09 14:11:28
-
小米2026届春季校园雇用启动:触及芯片、算法等20职类,需多轮测试科技前沿 2026-03-09 14:08:45
-
AI设计新神器来袭:无需专业技能,一句话解锁巨匠级海报创作资讯百科 2026-03-09 14:05:50
-
又一爆款预定,吉祥银河M7将于3月13日表态:1730km超长续航科技前沿 2026-03-09 14:03:26
-
2026百度Apollo Park参访:解锁智能驾驶手艺落地密码,赋能企业转型资讯百科 2026-03-09 14:00:39
-
国内油价本日将迎年内最大涨幅,网友实拍多地加油站排长队科技前沿 2026-03-09 13:57:03
-
智能办公本怎样选?科大讯飞X5等四款抢手产物功能特点大比拼,帮你找到心头好资讯百科 2026-03-09 13:55:27
-
谁动了稳定币的锚?复盘历年重大脱锚事件,一文汇总科技前沿 2026-03-09 13:54:08
-
交通运输部:本年启动效劳区机制晋级举动 增添马桶位、完美充电设备科技前沿 2026-03-09 13:51:19