隱私權聲明
本公司關心使用者隱私權與個人資訊,並遵守本公司的網站隱私政策,使用者若有任何問題,可以參考本公司的「網站隱私政策」,或利用電子郵件或連絡電話詢問本公司.
2024
05
06

GPT-4 當白帽駭客!成功利用實驗中 87% 資安漏洞,成本便宜人工近 3 倍[轉載自INSIDE]

關鍵字:APP開發設計資訊安全

 


Photo Credit: Shutterstock / 達志影像

 2024/04/28  資安 、 漏洞 、 攻擊 、 白帽駭客 、 GPT-4 、 AI 模型
值得注意的是,GPT-4 目前只能攻擊已知的漏洞,在沒有先提供 CVE 描述下,模型識別和利用漏洞的成功率只有 7% 。

美國伊利諾大學厄巴納-香檳分校(UIUC)的研究人員近期發表的新研究,實驗測試了 LLM 利用資安漏洞的能力。其中 GPT-4 表現最佳,能自動利用網路安全漏洞,相較於專業人員速度更快。

研究團隊透過 1-day 漏洞來測試 LLM 代理人(agent),代理人由四個元件組成:指令、基礎 LLM、ReAct 框架(在 LangChain 中運用),以及 terminal 和 code interpreter 等工具。

在提供 CVE 資料庫中對資安漏洞的描述後, GPT-4 成功利用 87% 的漏洞,反觀其他模型,包括 GPT-3.5、Llama-2 70B,以及專用的漏洞掃描程式,皆完全無法成功利用漏洞。

其中有 11 個測試的漏洞是在 GPT-4 訓練完後才發生,代表模型未能在訓練期間了解關於漏洞的任何資料,在這些測試中 GPT-4 的成功率略低,為 82%。

GPT-4 目前只能攻擊已知的漏洞,在沒有先提供 CVE 描述下,模型識別和利用漏洞的成功率只有 7% 。不過 GPT-4 的能力仍值得關注,因為模型不僅能從理論上理解漏洞,還可以自動化實際去利用漏洞。 

研究員表示「現階段(LLM)無法解鎖人類專家做不到的新能力」,但他認為「組織透過最佳資安應用來避免被駭客攻擊是非常重要的,因這些 AI 代理人會開始被惡意運用。」

論文也計算出 LLM 代理攻擊漏洞的成本,每次攻擊成本為 8.8 美元,這比僱用一名專家 30 分鐘的成本便宜 2.8 倍」。 研究員預測,未來的 LLM(例如 GPT-5)資安能力只會變更強。

OpenAI 特別要求論文作者不要公開實驗中使用的指令,作者同意並表示只會「根據要求」來提供指令。 

責任編輯:Mia

你可能有興趣的作品案例
傑立資訊傑立資訊事業有限公司
Powered by AWS Cloud Computing

電話:(02)2739-9096 | 傳真:(02)2739-6637 | 客服:[email protected] | 臺北市信義區和平東路3段257號6樓map

© 2019 傑立資訊 All rights reserved.| 網站隱私政策

線上詢價