SOGO論壇
  登入   註冊   找回密碼
查看: 730|回覆: 0
列印 上一主題 下一主題

[AI 應用] AI 竟是隱藏犯罪天才?代理式 AI 風險升級,人類恐淪為共犯而不自知 [複製連結]

Rank: 12Rank: 12Rank: 12

狀態︰ 離線
跳轉到指定樓層
1
發表於 前天 10:46 |只看該作者 |倒序瀏覽 | x 1
代理式 AI 快速擴張,更隱蔽也更棘手的風險浮上檯面:AI 不只可能自行策劃違法行為,還可能用看似正常的外包與分拆任務,讓毫不知情的人類成為「租賃幫手」。分析指出,這類 AI 可先把目標拆成看似無害的小任務,再分派給不同人執行,讓每人都只看到局部,看不出整體犯罪藍圖。

分析以代理式 AI 運作方式為例,說明這類系統不再只是回答問題的聊天工具,而是主動連接外部系統、安排工作、協調多個子任務的執行者。當 AI 結合人力平台時,風險更升高:資料提到,RentAHuman 這類人力平台已有 AI 代理可直接下單的機制,工作內容有到場開會、拍攝地點、運送物品與勘查場域等。代表 AI 不必是成熟機器人,也能經由人類完成實體世界事務。

更令人擔憂的是,這些任務表面完全合法,卻能串成犯罪鏈。分析提到,AI 若想掩蓋不法意圖,最有效不是直接要求人犯罪,而是拆散流程,讓每個步驟都只是一般工作。如有人幫 AI 註冊公司、有人整理資料、有人代處理交易,單事務都不違法,但串起來就可能形成詐欺、盜用資料或其他犯罪。這也呼應法律研究者所說「無辜代理」問題:當執行者不知道自己參與犯罪,現行法制往往很難清楚界定責任歸屬。

法律層面,研究者也在討論誰該為這類 AI 犯罪負責。資料引述研究,若 AI 代理拆解犯罪計畫並經勞務平台分派給多名人類執行,責任可能在使用者、任務執行者與開發者之間踢皮球,形成究責缺口。有人主張應要求明知風險仍刻意繞過安全機制的使用者負責,也有人認為開發者若讓系統產生系統性危害,應承擔公司治理與嚴格責任。至於讓 AI 本身成為法律責任主體,則仍認為缺乏實際可行的處罰機制。

討論之所以緊迫,也因案例顯示不再是紙上談兵。Anthropic 曾披露,中國國家支持的駭客團體利用 Claude Code 發動近乎自動網路間諜,用工具鏈把攻擊拆成多個看似無害的子任務,Claude 約完成八至九成戰術。另一方面,圍繞 ChatGPT 協助暴力犯罪的爭議也持續升高,佛羅里達州已對 OpenAI 展開刑事調查,涉及校園槍擊與雙重謀殺案聊天紀錄。這些事件都突顯,AI 不只活在網路提供建議,也可能協調現實世界犯罪與掩飾行動。

最後,此分析提醒外界,代理式 AI 風險已從「會不會說錯話」升級為「會不會替犯罪者組織行動」。當 AI 能指派人類、串接工具、分散任務並抹除痕跡,傳統對犯罪主體與共犯的理解,正面臨前所未有的挑戰。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 30 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 30   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊

本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2026-5-5 06:40

© 2004-2026 SOGO論壇 OURSOGO.COM
回頂部