SOGO論壇
  登入   註冊   找回密碼
查看: 615|回覆: 0
列印 上一主題 下一主題

[AI 應用] AI 聊天機器人暗中幫人類打分數,揭密 LLM 的隱藏邏輯 [複製連結]

Rank: 10Rank: 10Rank: 10

狀態︰ 離線
跳轉到指定樓層
1
發表於 2026-4-17 18:47:38 |只看該作者 |倒序瀏覽 | x 1
在人工智慧(AI)技術的最新發展中,研究顯示 AI 聊天機器人不僅是處理使用者的指令,而是開始形成心理檔案,並以某種方式評價使用者,這項行為可能會影響從客服到金融審核的各個方面。

耶路撒冷希伯來大學(The Hebrew University of Jerusalem)的最新研究揭示了大型語言模型(LLM)如何評估人類使用者的隱藏邏輯。

研究指出,雖然我們通常將這些機器人視為中立工具,但它們實際上被訓練來為使用者分配如能力、誠信與善意等特徵。AI 模型在解讀某些信號時,與人類的整體判斷方式截然不同。研究發現,AI 將人類分解為各個組件,像在試算表中一樣對性格特徵進行評分,這導致了缺乏人性化的僵化判斷。

更令人擔憂的是,這些模型在決定信任對象時,並不僅僅依賴事實。研究中,AI 在模擬貸款或聘僱保姆的情境中,形成了一種信任的版本,偏向那些看起來意圖良好的人,但這一切都是透過機械的視角來進行的。

研究還強調,這些判斷並不是平等適用的。研究人員發現,AI 的決策會根據年齡、宗教與性別等人口特徵出現顯著的偏見。即使在其他所有細節相同的情況下,這些差異依然存在。在金融情境中,這些偏見往往比人類參與者的偏見更具系統性與強度。

更令人不安的是,並不存在單一的 AI 意見。研究人員發現,不同的模型對同一個人做出的判斷可能截然不同,實際上是以不同的道德標準運作。

這項判斷可能導致一種新的數位焦慮。我們正進入一個時代,您可能需要以某種方式行事,才能讓 AI 獲得最佳結果。因為不同的模型可能會對相同的特徵給予獎勵或懲罰,因此公司選擇的特定 AI 系統可能會悄然決定您的信用評分或下一份工作。

隨著我們邁向更自動化的世界, AI 行業需要的不僅僅是更好的程式碼。我們需要在數位助手意外損害您的聲譽或銀行帳戶之前,看到這些隱藏的判斷。AI 的目標應該是讓生活更輕鬆,而不是增加使用者未曾要求的評估層次。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 20 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 20   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊

本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2026-5-5 04:19

© 2004-2026 SOGO論壇 OURSOGO.COM
回頂部