多智能體人機系統中延遲回饋下的偏誤歸因

arXiv - Human-Computer InteractionTeerthaa Parakh, Karen M. Feigh

本研究探討了延遲回饋與多個AI智能體在決策過程中如何影響人類的責任歸因,並揭示了人類在歸因時產生的系統性偏差。

AI 幫你先抓重點

AI 重點 1

延遲回饋導致的歸因偏差

滑鼠懸停看 AI 判斷理由
此研究揭示了在多智能體系統中,延遲回饋如何加劇人類的認知偏差,影響決策的準確性。這對於設計更有效的人機協作系統至關重要,尤其是在教育和訓練等領域。
AI 重點 2

責任歸因的誤謬與決策修正

滑鼠懸停看 AI 判斷理由
了解參與者如何錯誤地將責任歸因於AI智能體,有助於設計更透明、可解釋的AI系統,並引導使用者進行更有效的學習和問題解決。這對於提升學習者的自主學習能力至關重要。

核心研究發現

  1. 1

    參與者在正面與負面結果後,表現出不對稱的反應,負面結果後更傾向於調整行為。

  2. 2

    參與者常常未能正確識別導致失敗的行動,並將責任錯誤地歸因於不同的AI智能體。

  3. 3

    這種錯誤的責任歸因導致決策的系統性修正,這些修正與實際導致表現不佳的原因關聯性較弱。

  4. 4

    研究發現,認知偏差在具有延遲結果和多個自主智能體的人機系統中會被放大。

  5. 5

    這項研究強調了決策支持系統在提升因果理解和長期學習方面的重要性。

對教育工作者的啟發

教育工作者在設計運用AI輔助學習系統時,應注意延遲回饋可能造成的認知偏差。系統應提供清晰的因果關係資訊,幫助學習者正確理解自身行動與學習成果之間的關聯。此外,應設計能促進反思和自我修正的機制,避免學習者將失敗歸咎於外部因素或錯誤的AI智能體。透過強化學習者對因果關係的理解,提升其自主學習能力。

原始文獻資訊

英文標題:
Biased Error Attribution in Multi-Agent Human-AI Systems Under Delayed Feedback
作者:
Teerthaa Parakh, Karen M. Feigh
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。