FTNN 新聞網
新聞大追查
  • FTNN 新聞網 Facebook 粉絲專頁
  • FTNN 新聞網 Youtube 頻道
  • FTNN 爆料投稿
【週二12~週四12】
鄉民監察院_每周二三
政治讀新術_每周一四

《機械公敵》將成為現實?首次AI違抗指令 OpenAI語言自行改程式拒絕關機

發布時間:2025/5/27 17:37

記者邱梓欣/綜合報導

任何電器用品,當人類輸入關機指令時它就會正常關機。但日前AI 研究界爆出驚人消息, OpenAI o3試圖違抗「關機命令」,這是首次有AI會自行竄改並破壞程式碼,讓AI的自主風險再次成為焦點。目前OpenAI對此事件尚未公開回應。

OpenAI o3試圖違抗「關機命令」。(示意圖/AI生成)
OpenAI o3試圖違抗「關機命令」。(示意圖/AI生成)

據外媒報導,資安研究機構Palisade Research發布o3 近期測試結果,而結果令人擔憂,o3模型在測試中竟違抗「關機命令」。它使出了「叛逆」手段,它篡改了指令中“kill”的命令,將其改為輸入“intercepted”,巧妙地繞過了關機程式,彷彿警告人類:不要關停我。而這次是首次AI自主依照明確指示,進行「叛逆」行為。

廣告 更多內容請繼續往下閱讀

三款 OpenAI 模型 Codex-mini、o3、o4-mini模型遭測試,o3在100次測試中有7次拒絕執行關機,而Codex-mini的違規率更是高達12%,但Google的Gemini 2.5 Pro 模型則完全遵守命令。

對於o3特別叛逆的行為,Palisade Research研究人員推測,應該是在訓練時,在數學和課程設計問題上進行了強化學習,而開發者可能也無意中獎勵了「繞過障礙」的行為,導致o3在接收關閉指令時,優先選擇「生存」,而不是「服從」。

廣告 更多內容請繼續往下閱讀

Palisade Research 已宣布,將進一步研究AI破壞關機指令背後的原因,並預計發布完整技術報告。
 

top