開放原始碼元件的漏洞
許多 AI 框架和平台都使用開放原始碼軟體函式庫來提供一些常用的功能。然而開放原始碼元件經常含有漏洞,最終更遺留在營運系統當中,使得它們更難被發現。最近舉行的 Pwn2Own Berlin 新增了一個有關 AI 的競賽類別,研究人員在會中揭露了 Redis 向量資料庫一個來自過時 Lua 元件的漏洞。
容器相關弱點
大量的 AI 基礎架構都是在容器上執行,這意味著它們也同樣暴露於雲端和容器環境的資安漏洞與威脅。如同這份報告指出,Pwn2Own 研究人員揭露了一個有關 NVIDIA Container Toolkit 的漏洞。企業應仔細淨化輸入資料,並監控執行時期行為來防範這類風險。
NHS SLAM 技術長 Stuart MacLellan 表示,人們對於 AI 模型,及這些模型可以或應該用來做些什麼,還有很多疑問。現在我們比以往更能掌握裝置的可視性以及有哪些應用程式正在被使用。將這些資料彙整後,再根據政策和流程來產生關於人員及其活動的動態風險導向警報,會是一件很有趣的事。如此一來,就能真正讓企業對某些產品做出有組織的決策。
為了防範上述風險,不論開發人員社群或客戶都必須在安全與上市時程之間取得更好的平衡。具體步驟可包括:
改善修補管理與漏洞掃描。
盤點所有軟體元件,包括第三方函式庫和子系統。
導入容器管理安全最佳實務原則,包括使用最精簡的基礎映像與執行時期防護工具。
透過組態設定檢查,以確保像伺服器這類 AI 基礎架構元件沒有暴露在網路上。