SOGO論壇
  登入   註冊   找回密碼
查看: 147|回覆: 0
列印 上一主題 下一主題

[AI 應用] Anthropic 延攬武器專家,為防堵自家 AI 遭惡意濫用 [複製連結]

Rank: 13Rank: 13Rank: 13Rank: 13

狀態︰ 離線
跳轉到指定樓層
1
發表於 2026-3-17 16:36:30 |只看該作者 |倒序瀏覽 | x 1
美國人工智慧公司 Anthropic 近日開放新職缺,為化學武器及高能炸藥專家(一名),以防止自家產品遭「災難性濫用」。Anthropic 擔心 AI 工具可能製造化學或放射性武器,希望有專家協助,確保安全防護措施夠健全。

LinkedIn徵才公告,Anthropic表示,申請者需具備至少五年化學武器和或炸藥防護經驗,並需了解放射性擴散裝置,即所謂的髒彈。Anthropic回覆BBC,此職位與其他敏感職位類似。Anthropic並非唯一這樣做的AI公司,OpenAI也有徵招類似職位,職稱為「生物和化學風險」研究員,年薪高達45.5萬美元,幾乎是Anthropic薪資兩倍。

但有些專家還是擔憂,稱這可能使AI工具接觸到武器資訊,即使有指示AI不使用這些資訊。科技研究員Stephanie Hare博士表示「以AI系統處理敏感化學和炸藥資訊,包括髒彈和其他放射性武器,是否安全?」這類工作的國際條約或其他規範尚未建立,所有任務都是暗中進行。

美伊戰爭及委內瑞拉軍事行動後,AI用於軍事的問題緊迫性日益增加。Anthropic已提告美國戰爭部,因堅持自家系統不得用於完全自主武器或大規模監控美國人,被戰爭部列入供應鏈風險名單。

Anthropic共同創辦人Dario Amodei在2024年2月表示,他認為AI尚未成熟,不應用於軍事目的。白宮則表示,軍方不受科技公司管控。此風險標籤使Anthropic與中國電信公司華為處於同等地位,後者因國安問題被列入黑名單。

OpenAI雖贊同Anthropic立場,但轉頭就與美國政府達成合作協議,不過合約還未開始。Anthropic的AI模型Claude仍在營運,嵌入Palantir系統,已於美國與以色列的伊朗戰爭部署。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 20 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 20   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊

本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2026-5-5 04:19

© 2004-2026 SOGO論壇 OURSOGO.COM
回頂部