這類風險也不只來自平台本身。資料外洩常見於幾個環節:提示詞暴露敏感內容、上傳不該分享的檔案、帳號密碼管理鬆散,以及過度信任 AI 產生的結果。資安專家提醒,使用者應盡量將提示內容縮減到最低必要資訊,並在送出前刪除姓名、帳號、專案代號等識別細節;企業則應建立明確的 AI 使用政策、存取控管與人工審核機制。
在個人使用情境下,原則同樣清楚:如果內容不適合寫進私人信件或交給陌生人分析,就不該直接貼到 AI 對話框中。對需要處理較敏感工作的團隊來說,與其讓員工分散使用未受管控的工具,不如透過更集中的工作環境、資料遮罩與加密流程來降低暴露風險。