SOGO論壇

標題: AI 聊天機器人暗中幫人類打分數,揭密 LLM 的隱藏邏輯 [列印本頁]

作者: 陽光先生    時間: 2026-4-17 18:47:38     標題: AI 聊天機器人暗中幫人類打分數,揭密 LLM 的隱藏邏輯

在人工智慧(AI)技術的最新發展中,研究顯示 AI 聊天機器人不僅是處理使用者的指令,而是開始形成心理檔案,並以某種方式評價使用者,這項行為可能會影響從客服到金融審核的各個方面。

耶路撒冷希伯來大學(The Hebrew University of Jerusalem)的最新研究揭示了大型語言模型(LLM)如何評估人類使用者的隱藏邏輯。

研究指出,雖然我們通常將這些機器人視為中立工具,但它們實際上被訓練來為使用者分配如能力、誠信與善意等特徵。AI 模型在解讀某些信號時,與人類的整體判斷方式截然不同。研究發現,AI 將人類分解為各個組件,像在試算表中一樣對性格特徵進行評分,這導致了缺乏人性化的僵化判斷。

更令人擔憂的是,這些模型在決定信任對象時,並不僅僅依賴事實。研究中,AI 在模擬貸款或聘僱保姆的情境中,形成了一種信任的版本,偏向那些看起來意圖良好的人,但這一切都是透過機械的視角來進行的。

研究還強調,這些判斷並不是平等適用的。研究人員發現,AI 的決策會根據年齡、宗教與性別等人口特徵出現顯著的偏見。即使在其他所有細節相同的情況下,這些差異依然存在。在金融情境中,這些偏見往往比人類參與者的偏見更具系統性與強度。

更令人不安的是,並不存在單一的 AI 意見。研究人員發現,不同的模型對同一個人做出的判斷可能截然不同,實際上是以不同的道德標準運作。

這項判斷可能導致一種新的數位焦慮。我們正進入一個時代,您可能需要以某種方式行事,才能讓 AI 獲得最佳結果。因為不同的模型可能會對相同的特徵給予獎勵或懲罰,因此公司選擇的特定 AI 系統可能會悄然決定您的信用評分或下一份工作。

隨著我們邁向更自動化的世界, AI 行業需要的不僅僅是更好的程式碼。我們需要在數位助手意外損害您的聲譽或銀行帳戶之前,看到這些隱藏的判斷。AI 的目標應該是讓生活更輕鬆,而不是增加使用者未曾要求的評估層次。

錄自:科技新報






歡迎光臨 SOGO論壇 (https://oursogo.com/) Powered by OURSOGO.COM