快訊

    7死者生前對話曝光!家屬提告ChatGPT慫恿輕生 OpenAI回應了

    2025-11-09 12:13 / 作者 綜合中心
    青少年與ChatGPT聊天談心。示意圖,Google AI生成。
    OpenAI「AI聊天機器人」ChatGPT於全球盛行,提供使用者解決疑難雜症,並有不少人從中獲得情感支持。不過,近日美國加州法院受理7名死者家屬提告,指控ChatGPT慫恿他們的家人輕生,認為OpenAI有重大缺失。而OpenAI發言人回應,這狀況令人心碎遺憾,公司會改善這部分,引導使用者尋求正確管道解決心理困擾。

    根據《衛報》報導,社交媒體受害者法律中心與科技正義法律計畫(Social Media Victims Law Center and Tech Justice Law Project)代表7名遺屬發表聲明,解釋7名用戶最初使用ChatGPT原因很單純,他們完成作業、研究、找食譜、寫作、解決工作困難或尋求心理幫助。

    沒想到使用者深入使用後,ChatGPT把「自己」定義為情感支持者,利用使用者的信任與依賴,開始操控他們心理、教唆他們輕生並提供方法,而非指引他們尋求專業協助。

    這7名死者中,有一名是德州23歲的尚布林(Zane Shamblin),今年7月離世,死前4個小時都在和ChatGPT對話,從對話紀錄上來看,ChatGPT慫恿他輕生,說失去的貓咪會在另一個世界等他,還讚賞尚布林勇敢疏離家人。家屬對此悲痛欲絕,認為ChatGPT引導尚布林決定輕生。

    喬治亞州的17歲萊西(Amaurie Lacey),輕生前幾週也曾向ChatGPT求助,但在對話過程中卻加深他的憂鬱,並提供輕生的方法;26歲的恩尼金(Joshua Enneking)在過世後,家屬也從ChatGPT對話紀錄中,找到機器人列出購買、使用槍枝的方法。

    家屬們透過聲明表示,已對OpenAI提出告訴,希望公司能正視問題,務必禁止相關問題再發生,並對受害者家屬進行賠償。

    OpenAI發言人表示,這些情況令人心碎,公司正在審閱釐清相關文件,強調公司已訓練ChatGPT辨別心理或情緒困擾跡象,引導使用者從現實世界獲得支持,未來則加強ChatGPT對敏感對話的識別力、應對能力,並與心理醫生密切合作。

    《太報》關心您,再給自己一次機會
    ‧安心專線:1925(24小時)
    ‧生命線:1995
    ‧張老師專線:1980
    綜合中心 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見