信任的養成:人類如何校準 AI 的信心訊號

arXiv - Human-Computer InteractionZhaoBin Li, Mark Steyvers

本研究探討人類是否能透過重複經驗,學習校準 AI 系統的信心訊號,並發現人們能有效調整對 AI 的信任度,但反向信心的情況下則較難克服。

AI 幫你先抓重點

AI 重點 1

人類能有效校準對 AI 信心訊號的信任度。

滑鼠懸停看 AI 判斷理由
此發現對於設計更有效的人機協作系統至關重要,因為適當的信任是提升協作效率的基礎。了解人類如何調整信任度,有助於開發能更好地與人類溝通的 AI 系統。
AI 重點 2

反向信心的 AI 校準情境會造成學習困難。

滑鼠懸停看 AI 判斷理由
這揭示了人類在面對與直覺相悖的 AI 表現時,會遇到挑戰。這對於教育科技的設計具有警示作用,提醒設計者應避免創造容易造成使用者困惑的 AI 系統,並思考如何引導使用者正確理解 AI 的輸出。

核心研究發現

  1. 1

    人類能夠在不同 AI 校準情境下學習並提升預測 AI 正確性的能力,包含標準、過信、低信及反向信心。

  2. 2

    參與者在 50 次試驗後,其準確性、辨別能力及校準一致性均有顯著改善,顯示學習效果。

  3. 3

    研究建立了一個線性對數機率 (LLO) 轉換及 Rescorla-Wagner 學習規則的計算模型,解釋了這些動態。

  4. 4

    人們透過更新其基礎信任度及信心敏感度,並使用非對稱學習率來優先處理最具資訊性的錯誤,來適應 AI。

  5. 5

    雖然人類能補償單調的校準誤差,但在反向信心的情境下,許多參與者難以克服最初的歸納偏誤。

對教育工作者的啟發

教育科技設計者應注意 AI 系統的校準程度,避免過度自信或過度保守的表現。在教學情境中,若使用 AI 輔助學習系統,應引導學生理解 AI 的優缺點,並培養他們批判性思考的能力。此外,在設計 AI 系統時,應考慮人類的認知偏誤,並提供明確的解釋和反饋,以幫助使用者建立對 AI 的合理信任。

原始文獻資訊

英文標題:
Learning to Trust: How Humans Mentally Recalibrate AI Confidence Signals
作者:
ZhaoBin Li, Mark Steyvers
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。