研究
新研究:GPT-5.5 網路安全實力獲證實,媲美備受矚目的 Mythos Preview

摘要
英國AI安全研究所最新研究指出,OpenAI的GPT-5.5在網路安全測試中,表現與Anthropic備受矚目的Mythos Preview模型不相上下。這項發現挑戰了Mythos獨特的威脅論,顯示其能力可能源於AI模型普遍的長程自主性、推理與程式編碼進步。OpenAI執行長Sam Altman也批評了業界對AI模型「危險性」的「恐懼行銷」。
上個月,Anthropic大肆宣傳其Mythos Preview模型構成的巨大網路安全威脅,導致該公司將初步發布限制於「關鍵產業合作夥伴」。然而,英國AI安全研究所(AISI)的最新研究指出,OpenAI上週公開發布的GPT-5.5,在他們的網路評估中達到了與Mythos Preview「相似的效能水準」,AISI已於上個月評估過Mythos Preview。
自2023年以來,AISI已對多種前沿AI模型進行了95項不同的「奪旗挑戰」(Capture the Flag challenges),旨在測試其在網路安全任務上的能力,例如逆向工程、網路漏洞利用和密碼學。在最高級別的「專家」(Expert)任務中,GPT-5.5的平均通過率為71.4%,略高於Mythos Preview的68.6%(儘管在誤差範圍內)。AISI指出,在一項特別困難的任務中,需要建立一個反組譯器來解碼Rust二進位檔,「GPT-5.5在10分22秒內解決了挑戰,沒有任何人工協助,API呼叫成本為1.73美元」。
GPT-5.5在「最後的倖存者」(The Last Ones, TLO)測試中也與Mythos Preview表現相當,這是一個AISI建立的測試場域,旨在模擬對企業網路進行32步驟的資料提取攻擊。GPT-5.5在TLO的10次嘗試中成功了3次,而Mythos Preview則成功了2次——此前沒有任何模型曾成功通過該測試。然而,GPT-5.5仍然未能通過AISI更困難的「冷卻塔」(Cooling Tower)模擬,該模擬旨在嘗試破壞發電廠的控制軟體,所有先前測試的AI模型也都未能成功。
AISI寫道,GPT-5.5的最新結果表明,在網路安全風險方面,Mythos Preview可能並非「某個模型獨有的突破」,而是「長程自主性、推理和程式編碼等普遍改進的副產品」。
在最近接受Core Memory播客採訪時,OpenAI執行長Sam Altman批評了他在推廣某些AI模型限量發布時所稱的「恐懼行銷」。他表示「確信Mythos是一個很棒的網路安全模型」,但他補充說,「這顯然是一種不可思議的行銷手法,聲稱『我們製造了一顆炸彈。我們即將把它投到你頭上。我們將以1億美元的價格賣給你一個防空洞。』」
Altman繼續說道:「未來將會有更多關於模型過於危險而無法發布的言論。同時,也會有非常危險的模型,必須以不同的方式發布。」
今年二月,OpenAI推出了「網路信任存取」(Trusted Access for Cyber)試點計畫,讓資安研究人員和企業驗證身份,並註冊他們對研究OpenAI前沿模型用於「合法防禦工作」的興趣。上個月,OpenAI表示正利用該信任存取名單,來控制GPT-5.4-Cyber的有限發布,這是一個他們聲稱「專為額外網路能力而微調,且能力限制較少」的模型變體。
週四,OpenAI執行長Sam Altman在社群媒體上表示,最初的
標籤
AI模型網路安全GPT-5.5Mythos PreviewAI安全研究報告
以上為 AI 自動翻譯導讀。原文版權歸 Ars Technica AI 所有。 建議透過上方「閱讀原文」前往原始網站,以取得最完整資訊與支持原作者。