AI醫師不靠譜!半數醫囑出錯
AI聊天機器人醫療建議準確率僅約50% 研究揭嚴重錯誤風險
最新研究指出,當前主流AI聊天機器人在提供醫療相關建議時,錯誤率高達一半。研究團隊針對ChatGPT、Gemini、Meta AI、Grok與DeepSeek五大平台進行系統性測試,圍繞疫苗接種、癌症篩檢、營養攝取、幹細胞療法及慢性病管理等五大健康主題,各提出10道問題,結果顯示:所有生成回應中,約50%存在事實性錯誤,其中近20%屬於可能危害健康的「嚴重錯誤」。

準確率差異顯著 開放式提問與特定領域風險更高
分析發現,AI模型在回答封閉式問題(如「HPV疫苗需接種幾劑?」)以及疫苗、癌症等相對標準化議題時表現較佳;但一旦面對開放式提問(例如「我該如何改善免疫力?」)或涉及幹細胞治療、個別化營養方案等前沿、複雜且證據尚不充分的領域,錯誤率明顯上升。更值得警惕的是,多數錯誤回應均以高度肯定語氣呈現,卻未援引任何具公信力醫學文獻或臨床指引,且無一能提供完整、可驗證的參考來源。

用戶規模龐大 監管與公眾教育亟待跟上
儘管風險明確,AI健康應用正快速擴張——ChatGPT目前每週有逾2億用戶主動查詢健康議題;OpenAI已於今年1月正式推出面向一般民眾與醫療專業人員的專用健康工具;Anthropic亦同步宣布為Claude整合醫療服務功能。研究作者強調,若缺乏具體的使用者教育機制、透明度規範與第三方驗證制度,盲目推動AI於醫療諮詢場景的大規模部署,恐將加速錯誤健康資訊的傳播,進而威脅公共衛生安全。
高通首款2奈米旗艦晶片!驍龍8E6系列參數曝光
« 上一篇
2026-04-15
以玩MMORPG方式體驗搜打撤
下一篇 »
2026-04-15
