SOGO論壇
  登入   註冊   找回密碼
查看: 12|回覆: 0
列印 上一主題 下一主題

[AI 應用] 問 AI 學歷史有多危險?尼安德塔人案例顯示一半內容與現代科學不符 [複製連結]

Rank: 12Rank: 12Rank: 12

狀態︰ 離線
跳轉到指定樓層
1
發表於 2026-4-11 17:46:59 |只看該作者 |倒序瀏覽 | x 1
一項新研究指出,生成式 AI 雖然能迅速回答問題,卻也可能把過時的科學觀念一併帶入當代。美國研究團隊以尼安德塔人(Neanderthal)為案例測試聊天機器人與圖像生成系統,發現 AI 產出的文字與圖片常引用過時資料,甚至混入與史前時代不符的元素,凸顯大眾在使用 AI 了解歷史時,可能面臨誤導風險。

這項研究由緬因大學(University of Maine)人類學助理教授 Matthew Magnani 與芝加哥大學(University of Chicago)專攻計算人類學的教授 Jon Clindaniel 合作完成,並發表於《Advances in Archaeological Practice》。研究團隊設計四組提示詞,每組重複執行 100 次,分別使用 DALL-E 3 生成影像,以及 ChatGPT API(GPT-3.5)撰寫尼安德塔人日常生活敘述,以檢驗 AI 對古人類知識的再現是否貼近現代學界理解。

結果顯示,AI 的表現高度依賴其可接觸到的資料來源。研究團隊指出,生成的影像延續了超過百年前的刻板印象,把尼安德塔人描繪成毛髮濃密、身體前傾、近似猿類的原始形象,且多半只呈現男性,忽略女性與兒童。文字內容同樣出現明顯落差,約有一半與當代科學認知不符;在某些提示詞下,偏離比例甚至超過八成。

更令人關注的是,這些內容還出現了明顯的時代錯置,例如籃編、茅草屋、梯子,以及玻璃和金屬等不屬於尼安德塔時期的物件。研究進一步比對不同年代的學術文獻後發現,ChatGPT 的回答最接近 1960 年代的研究,而 DALL-E 3 的圖像則更像 1980 年代末到 1990 年代初的資料。

Magnani 表示,這項研究旨在辨識日常使用 AI 時可能內建的偏誤,也提供其他研究者一個模板,檢視人工智慧生成內容與最新學術知識之間的距離。Clindaniel 則強調,AI 雖擅長處理大量資料並找出模式,但前提是必須建立在經過驗證的科學知識之上。

研究團隊認為,隨著生成式 AI 更廣泛走入教育與公共知識領域,如何讓考古與人類學資料更容易被 AI 存取,將影響未來人們如何理解過去。他們也提醒,若缺乏適當校正,AI 雖能讓更多人更容易想像遠古世界,卻也可能放大舊有偏見與錯誤敘事。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 20 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 20   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊

本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2026-5-5 04:19

© 2004-2026 SOGO論壇 OURSOGO.COM
回頂部