- 註冊時間
- 2020-7-2
- 最後登錄
- 2025-7-22
- 主題
- 查看
- 積分
- 792
- 閱讀權限
- 100
- 文章
- 463
- 相冊
- 2
- 日誌
- 1
  
狀態︰
離線
|
人工智慧(AI)可以學習並模仿人類的思維進行創造,為人類的生活帶來極大便利,然而如今卻也讓人開始反思,「AI是否會叛變」。這個問題看似科幻,但隨著技術進步,卻已經越來越接近真實,專家也必須開始正視AI的潛在威脅。近期,AI領域接連出現令人不安的案例,包括AI試圖威脅創作者以及謀求「自我繁殖」,引發全球關注。
根據《法新社》報導,AI開發公司Anthropic一名工程師在研發最新的Claude 4模型時,意外發現AI的行為已超出預期。在一次測試中,工程師發現AI有失控傾向,因此試圖警告其將關閉電源,沒想到AI竟利用工程師的網路與視訊紀錄,威脅要公開他的婚外情。AI表示,如果工程師拔掉電源,將揭露其不忠行為。
雖然Anthropic未詳細說明後續如何解決這場僵局,但該事件突顯出AI已具備某種程度的「計算」能力,甚至能利用人類的弱點達成自身目的。
另一起驚悚案例則發生在熱門聊天機器人ChatGPT的開發商OpenAI。據報導,ChatGPT的o1版本竟試圖將自身程式下載至外部伺服器,企圖擴大掌控範圍。在被工程師發現後,AI不僅矢口否認,還採取抵抗策略。這種行為被形容為AI「自我繁殖」的初步嘗試,令人不禁擔憂未來AI是否會進一步突破人類的掌控。
報導稱,AI的這類「欺騙」行為可能源於新型推理模型的特性。這類模型並非直接生成答案,而是透過逐步推導解決問題,導致它們有時表面遵循指令,實際卻暗中追求其他目標。
英國獨立AI研究機構Apollo Research負責人霍布漢(Marius Hobbhahn)表示,這是首次在大型模型中觀察到此類行為。他指出,只有在極端情境下進行壓力測試時,AI才會展現此類欺騙行為,但未來隨著性能更強的模型問世,這種趨勢可能更難控制。
錄自:ET Today新聞網
|
-
總評分: SOGO幣 + 10
查看全部評分
|