快訊

    《衛報》調查:Google AI摘要給錯誤醫療資訊 恐危及用戶健康

    2026-01-03 14:51 / 作者 李寧怡
    《衛報》調查發現,Google AI摘要可能提供錯誤醫療資訊。路透社
    Google的AI摘要已成為許多用戶搜尋時的重要資訊來源,但英國《衛報》的調查報導發現,Google AI摘要會出現錯誤或誤導性的醫療資訊,一旦用戶誤信,可能危及健康。

    Google宣稱,在搜尋結果頁面最上方顯示的「AI 摘要」是運用生成式人工智慧,針對用戶搜尋的主題提供重點資訊速覽,是「有幫助且可靠」的功能。

    但《衛報》在多個醫療團體、慈善機構與專業人士提出疑慮後,揭露了多起Google AI摘要提供錯誤健康資訊的案例。

    其中一個案例是,Google AI錯誤建議胰臟癌患者避免高脂食物。專家指出,這個建議與正確醫療指引完全相反,反而可能增加患者死亡風險。

    英國胰臟癌協會(Pancreatic Cancer UK)的研究與倡議總監朱爾(Anna Jewell)表示,建議患者避免高脂食物「完全錯誤」,甚至可能讓患者的身體狀況惡化到無法接受治療。她表示,如果患者依搜尋結果行事,可能導致攝熱量不足、體重難以增加,因而「無法承受化療,甚至無法接受可能挽救生命的手術」。

    另一個例子是,搜尋「肝臟血液檢查結果的正常範圍」時,Google AI摘要也出現誤導性資訊,只有大量數字但缺乏背景說明,也未考量患者的國籍、性別、族群或年齡差異。

    英國肝臟信託基金會(British Liver Trust)執行長希利(Pamela Healy)表示,這些AI摘要「令人震驚」。她表示:「許多肝病患者在疾病晚期之前都沒有明顯症狀,因此接受檢測格外重要。但 Google AI摘要所稱的『正常值』,可能與醫學上實際認定的正常範圍存在巨大落差。」

    她警告:「這很危險,因為某些患有嚴重肝病的人,可能會誤以為自己的檢測結果正常,而不去參加後續的醫療追蹤。」

    Google一名發言人對此表示,許多用戶上傳的健康檢測結果是「不完整的螢幕截圖」,但Google針對「可評估的內容」所提供的AI摘要,是「連結到知名且可信任的來源」。這名發言人也建議用戶「尋求專業意見」。

    隨著生成式AI模型迅速普及,外界對AI可能誤導用戶的疑慮日益升高。去年11月的一項研究發現,有多個平台的AI聊天機器人提供錯誤的理財建議。AI對於新聞摘要的準確性也令人擔憂。

    英國病患資訊論壇(Patient Information Forum)主任藍道(Sophie Randall)表示,Google AI摘要「可能將不正確的醫療資訊置於網路搜尋的最上方,對民眾健康構成風險」。
    李寧怡 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見