AI 代理與人類責任感知的因果歸屬

arXiv - Computers and SocietyMaria Victoria Carro, David Lagnado

研究揭示 AI 代理程度、角色互換與開發者位置對人類對 AI 責任歸屬的影響,並指出代理部份更易被視為負責任。

AI 幫你先抓重點

AI 重點 1

AI 代理程度直接影響責任歸屬。

滑鼠懸停看 AI 判斷理由
此發現說明在設計 AI 系統時,需明確界定其自主性,否則使用者可能將責任錯置於 AI 或人類,影響安全與倫理評估。
AI 重點 2

開發者被視為高度負責任的角色。

滑鼠懸停看 AI 判斷理由
此結果強調開發階段的倫理審查與透明度機制不可忽視,因為開發者的決策會被使用者視為關鍵責任來源。
AI 重點 3

代理組件比語言模型更易被賦予因果責任。

滑鼠懸停看 AI 判斷理由
揭示決策層在 AI 系統中承擔更大責任,提示教育科技設計者應聚焦於代理層的可解釋性與控制,以提升使用者的責任感。

核心研究發現

  1. 1

    當 AI 代理程度為中等或高時,受試者更傾向將因果責任歸於 AI;而在低代理情境下,則更傾向責備人類。

  2. 2

    即使兩者執行相同行為,角色互換後受試者仍持續將人類視為更主要的因果來源。

  3. 3

    開發者雖處於因果鏈遠端,但被認為具有高度責任,從而降低對使用者的責任歸屬。

  4. 4

    將 AI 拆解為大型語言模型與代理組件後,代理組件被評為更具因果責任。

  5. 5

    受試者在考量時間距離與共同意圖時,仍會因自主性效應將責任歸於人類。

對教育工作者的啟發

研究顯示,AI 代理程度直接影響使用者對責任的分配,教育工作者在設計 AI 工具時應明確界定 AI 與人類的角色與自主性,並在課程中加入責任與可預見性評估。開發者亦被視為重要責任方,故需在系統設計階段嵌入倫理審查與透明度機制。將 AI 的代理部份拆解為語言模型與決策模組,可協助教師針對不同功能設計不同的教學策略與評量方式,提升學習者的自我監控與責任感。

原始文獻資訊

英文標題:
Human Attribution of Causality to AI Across Agency, Misuse, and Misalignment
作者:
Maria Victoria Carro, David Lagnado
來源:
arXiv - Computers and Society
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。