AI 代理與人類責任感知的因果歸屬
arXiv - Computers and SocietyMaria Victoria Carro, David Lagnado
研究揭示 AI 代理程度、角色互換與開發者位置對人類對 AI 責任歸屬的影響,並指出代理部份更易被視為負責任。
AI 幫你先抓重點
AI 重點 1
AI 代理程度直接影響責任歸屬。
滑鼠懸停看 AI 判斷理由
此發現說明在設計 AI 系統時,需明確界定其自主性,否則使用者可能將責任錯置於 AI 或人類,影響安全與倫理評估。
AI 重點 2
開發者被視為高度負責任的角色。
滑鼠懸停看 AI 判斷理由
此結果強調開發階段的倫理審查與透明度機制不可忽視,因為開發者的決策會被使用者視為關鍵責任來源。
AI 重點 3
代理組件比語言模型更易被賦予因果責任。
滑鼠懸停看 AI 判斷理由
揭示決策層在 AI 系統中承擔更大責任,提示教育科技設計者應聚焦於代理層的可解釋性與控制,以提升使用者的責任感。
核心研究發現
- 1
當 AI 代理程度為中等或高時,受試者更傾向將因果責任歸於 AI;而在低代理情境下,則更傾向責備人類。
- 2
即使兩者執行相同行為,角色互換後受試者仍持續將人類視為更主要的因果來源。
- 3
開發者雖處於因果鏈遠端,但被認為具有高度責任,從而降低對使用者的責任歸屬。
- 4
將 AI 拆解為大型語言模型與代理組件後,代理組件被評為更具因果責任。
- 5
受試者在考量時間距離與共同意圖時,仍會因自主性效應將責任歸於人類。
對教育工作者的啟發
研究顯示,AI 代理程度直接影響使用者對責任的分配,教育工作者在設計 AI 工具時應明確界定 AI 與人類的角色與自主性,並在課程中加入責任與可預見性評估。開發者亦被視為重要責任方,故需在系統設計階段嵌入倫理審查與透明度機制。將 AI 的代理部份拆解為語言模型與決策模組,可協助教師針對不同功能設計不同的教學策略與評量方式,提升學習者的自我監控與責任感。
原始文獻資訊
- 英文標題:
- Human Attribution of Causality to AI Across Agency, Misuse, and Misalignment
- 作者:
- Maria Victoria Carro, David Lagnado
- 來源:
- arXiv - Computers and Society
- AI 摘要模型:
- openai/gpt-oss-20b
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。