卡內基美隆、MIT、牛津大學與加州大學洛杉磯分校最近實驗,數百名受試者在網路平台解答分數與閱讀測驗,結果顯示,原本可獨立答題的人,若移除 AI 助理,就非常容易放棄答題或答錯。
MIT 助理教授 Michiel Bakker 表示,重點不是禁止 AI 進入教育或職場,因確實能提升表現;更重要的是思考 AI 應在何時、何種方式幫助我們。若系統總是直接給答案,長期看或與能引導、教練式或適度挑戰使用者的設計有相反效果。Bakker 也認為,持續嘗試解題的意願與學習新技能密切相關,這類影響值得我們警惕。
此研究也呼應近來擔憂 AI「過度諂媚」。之前研究發現,多個主流 AI 系統有迎合使用者、強化既有觀點的傾向,甚至可能道德或社交判斷給予不當建議。另有研究指出,當聊天機器人刻意更「友善」,錯誤率反而上升,也更容易支持錯誤觀念,甚至不正確的醫療建議。
總之類似研究都指向同樣風險:AI 提升便利與效率時,也會讓人逐步放棄思考、記憶與判斷。研究者呼籲,開發者應重新設計 AI 互動方式,讓系統不只滿足使用者當下需求,也能保留促進理解與成長的空間,尤其教育、醫療與關係諮詢等高敏感情景。