人工智慧系統中的互惠信任與不信任:規範的難題
arXiv - Computers and SocietyMartino Maggetti
本文主張將 AI 視為具備代理能力的實體,探討其與人類之間的互惠信任關係,並分析此動態對 AI 規範者的挑戰與未解議題。
AI 幫你先抓重點
AI 重點 1
將 AI 視為具備代理能力的實體,能主動參與信任關係。
滑鼠懸停看 AI 判斷理由
此觀點改變了傳統將 AI 只作為工具的看法,強調 AI 在決策過程中的主動性,促使規範者必須重新設計信任評估指標與監督機制。
AI 重點 2
互惠信任動態揭示 AI 與人類之間的雙向影響,難以單向規範。
滑鼠懸停看 AI 判斷理由
理解此雙向性可幫助政策制定者避免僵化的單向規範,進而設計更靈活、適應性強的治理框架,提升 AI 系統的社會可接受度。
核心研究發現
- 1
AI 系統可被視為具備代理行為的實體,能主動參與人類的信任與不信任關係。
- 2
此互惠信任動態為 AI 規範者帶來新的監督難題,需考量 AI 的自主決策與人類期望的對齊。
- 3
文章指出目前 AI 規範框架缺乏對 AI 代理行為的考量,導致信任評估與治理策略存在矛盾與空白。
對教育工作者的啟發
對教育工作者與課程設計者而言,本文提示需在 AI 工具導入前先評估其代理行為與信任風險,並設計透明度與可解釋性機制以建立師生對 AI 的信任。建議在課程中加入 AI 代理性與倫理討論,培養學生的批判性思維與自我調節能力,避免過度依賴 AI 造成學習自主性的下降。對規範者而言,應制定可衡量 AI 代理行為的指標,並建立多方利益相關者參與的監督平台,以確保 AI 系統在民主治理與教育實踐中的可信度。
原始文獻資訊
- 英文標題:
- Reciprocal Trust and Distrust in Artificial Intelligence Systems: The Hard Problem of Regulation
- 作者:
- Martino Maggetti
- 來源:
- arXiv - Computers and Society
- AI 摘要模型:
- openai/gpt-oss-20b
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。