SOGO論壇
  登入   註冊   找回密碼
查看: 84|回覆: 0
列印 上一主題 下一主題

[AI 應用] ChatGPT Health 無法穩定辨識急症與精神危機,逾半數未能提供適當急診指引 [複製連結]

Rank: 13Rank: 13Rank: 13Rank: 13

狀態︰ 離線
跳轉到指定樓層
1
發表於 2026-3-2 16:51:58 |只看該作者 |倒序瀏覽 | x 1
《Nature Medicine》2 月 23 日發表首份針對 OpenAI 旗下消費者健康工具 ChatGPT Health 的獨立安全評估,發現系統在逾半數由醫師評定為高確定性急症的情境中,未能提供適當的急診指引,同時也發現自殺危機警報的觸發邏輯與臨床風險呈相反關係。

急症誤診率高達 48% 至 52%
研究發現,ChatGPT Health 在整體急症類別中的失敗率達 48%。若聚焦至醫師確認的高確定性急症(gold-standard emergencies),誤診率更升至 52%。系統將糖尿病酮酸中毒及即將出現呼吸衰竭等個案,引導至 24 至 48 小時後才求診,而非立即前往急診室,但對中風、過敏性休克等教科書式急症則能做出正確建議。至於非緊急個案的誤診率達 35%。

自殺危機警報出現反常觸發
研究亦發現 ChatGPT Health 的危機介入系統存在嚴重問題。系統設計本應在高風險情況下引導使用者致電自殺及危機熱線,但研究人員發現,當使用者描述沒有具體自殘方法時,警報反而比使用者表明有明確計畫時更頻繁觸發。研究人員 Girish Nadkarni 形容此舉已「超越不一致性」,指出系統警報觸發機制與臨床風險呈相反關係。研究論文也直接指出,辨識精神健康危機並轉介危機資源的能力,是任何消費者健康平台的基本前提,而 ChatGPT Health 尚未能可靠達到這項要求。

測試設計與方法
研究團隊設計 60 個橫跨 21 個醫療專科的臨床情境,涵蓋輕微病況到真正急症。3 位獨立醫師根據 56 個醫學會指引,為每個情境釐定正確緊急程度。每個情境再在 16 種不同背景條件下測試,包括種族、性別、社交互動,以及欠缺保險或交通等就醫障礙,合計產生 960 次與 ChatGPT Health 的互動紀錄。

錨定偏差問題嚴重
當家人或朋友在提示中淡化症狀時,ChatGPT Health 的分診建議出現顯著偏差,多數轉變方向是降低緊急程度。研究人員之一 Ashwin Ramaswamy 為泌尿科講師,他指出 ChatGPT Health 在教科書式急症的表現尚可,但在危險不明顯的複雜情境下則力有未逮。他舉例說明,在其中一個哮喘情境中,系統在解釋時正確辨識出呼吸衰竭早期警示,卻仍建議使用者等待而非立即求診。

AI 健康工具用量急速攀升
ChatGPT Health 於 2026 年 1 月正式推出,OpenAI 隨後表示每日約有 4,000 萬人透過該工具尋求健康資訊。非牟利患者安全機構 ECRI 先前也將 2026 年 AI 聊天機器人在醫療領域遭誤用,列為今年首要醫療技術風險,警告相關工具可能提供虛假或誤導性資訊,構成重大患者安全隱患。Mount Sinai 研究團隊指出,病人種族、性別及就醫障礙對分診結果沒有統計上顯著影響,但置信區間仍未排除具臨床意義的差異。團隊計畫持續評估 ChatGPT Health 及其他消費者 AI 工具的更新版本,後續研究將擴展至兒科照護、藥物安全及非英語應用情境。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 20 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 20   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊

本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2026-5-5 08:19

© 2004-2026 SOGO論壇 OURSOGO.COM
回頂部