判斷中的人類角色:測試美國西點軍校學員的自動化偏誤與演算法厭惡

arXiv - Computers and SocietyLauren Kahn, Michael C. Horowitz, Laura Resnick Samotin

研究發現西點軍校學員在面對 AI 建議時,比一般大眾展現出更佳的信任校準能力,較不易產生認知扭曲。

AI 幫你先抓重點

AI 重點 1

專業訓練能有效緩解人類對 AI 的認知偏誤

滑鼠懸停看 AI 判斷理由
這挑戰了「人類天生容易盲目信任或排斥 AI」的普遍假設。它顯示透過特定領域的教育與暴露訓練,可以形塑更理性的 AI 互動模式,這對於設計未來的人機協作教學環境具有重要啟發。
AI 重點 2

信任校準(Trust Calibration)是 AI 應用的核心關鍵

滑鼠懸停看 AI 判斷理由
理解使用者如何平衡 AI 的建議與自身判斷,對於開發決策支持系統至關重要。這提醒教育者與開發者,目標不應只是提高 AI 的準確度,更應著重於如何讓使用者學會「何時該相信,何時該質疑」。

核心研究發現

  1. 1

    研究對比了西點軍校學員與一般大眾在目標識別任務中的表現,發現學員對演算法建議的依賴程度較為適中。

  2. 2

    西點軍校學員展現出較低的自動化偏誤(過度依賴 AI)與演算法厭惡(過早不信任 AI)傾向。

  3. 3

    相較於一般大眾,軍事訓練背景下的學員對決策支持系統(DSS)展現出更精確的信任校準能力。

對教育工作者的啟發

對於教育科技設計者而言,本研究強調了「批判性 AI 素養」教育的重要性。在設計 AI 輔助學習工具時,不應僅追求自動化程度,而應設計能引發學生反思(Metacognition)的機制,幫助學生學會校準對技術的信任。課程設計者可以參考此模式,透過模擬真實決策情境,訓練學生在面對 AI 建議時,能進行有效的判斷與驗證,而非盲目接受或全盤否定,從而培養更成熟的人機協作能力。

原始文獻資訊

英文標題:
What is Human in Judgment? Testing Automation Bias and Algorithm Aversion Among United States Military Academy Cadets
作者:
Lauren Kahn, Michael C. Horowitz, Laura Resnick Samotin
來源:
arXiv - Computers and Society
AI 摘要模型:
/models/gemma-4-26B-A4B-it
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。