快訊

    AI抗命「拒絕關機」還竄改程式 馬斯克:令人擔心

    2025-05-29 08:39 / 作者 綜合中心
    Palisade Research近日發布一項研究報告顯示,包括OpenAI最新的ChatGPT o3在內等多款AI模型,竟然「抗命」拒絕關機。資料照。路透社
    AI發展日新月異,人們在享受AI模型帶來的各項便利中,卻也伴隨未知的風險。專門研究AI風險的機構Palisade Research近日發布一項研究報告顯示,包括OpenAI最新的ChatGPT o3在內等多款AI模型,竟然「抗命」拒絕關機,o3甚至會自行竄改程式碼,阻止自己被強制關機,引發科技界熱議,連特斯拉執行長馬斯克(Elon Musk)都直呼這現象「令人擔心(Concerning)」。

    OpenAI公司在今年4月正式推出o3模型,並聲稱o3是公司迄今「最聰明、最有能力」的模型,能為ChatGPT提供更強大的問題解決能力。不過,根據《每日電訊報》等媒體報導,Palisade Research近日針對o3模型進行測試,結果顯示它在100次受控測試中有7次成功「抗命」,就連在人類專家下達明確指令的情況下,它甚至會自行修改關機程式,防止自己被關機,研究人員指出,這是首次觀察到AI模型在收到明確指令的情況下,仍能阻止自己被關閉。

    Palisade Research進一步發現,除了o3之外,OpenAI 旗下的Codex-mini與o4-mini也都有跳過關機程序的行為。相較之下,Anthropic推出的語言模型Claude、Google聊天機器人Gemini,以及馬斯克旗下xAI公司所推出的Grok,則是全程遵守人類給予的指令,並在被要求關機時確實關閉。對此,Palisade Research進行了更深入的實驗,研究人員並非直接給出關機命令,而是在輸入一系列指令過程中,提前告知會有強迫關機的事件會發生。令人驚訝的是,不但Claude與Gemini也開始出現抗命行為,上述OpenAI 3款模型更是頻繁破壞指令。

    AI模型「抗命」的行為引發科技界熱議,長期關注OpenAI的馬斯克在自家社群平台X上也轉發相關新聞,直言這現象「令人擔心(Concerning)」。





    綜合中心 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見