人工智慧系統中的互惠信任與不信任:規範的難題

arXiv - Computers and SocietyMartino Maggetti

本文主張將 AI 視為具備代理能力的實體,探討其與人類之間的互惠信任關係,並分析此動態對 AI 規範者的挑戰與未解議題。

AI 幫你先抓重點

AI 重點 1

將 AI 視為具備代理能力的實體,能主動參與信任關係。

滑鼠懸停看 AI 判斷理由
此觀點改變了傳統將 AI 只作為工具的看法,強調 AI 在決策過程中的主動性,促使規範者必須重新設計信任評估指標與監督機制。
AI 重點 2

互惠信任動態揭示 AI 與人類之間的雙向影響,難以單向規範。

滑鼠懸停看 AI 判斷理由
理解此雙向性可幫助政策制定者避免僵化的單向規範,進而設計更靈活、適應性強的治理框架,提升 AI 系統的社會可接受度。

核心研究發現

  1. 1

    AI 系統可被視為具備代理行為的實體,能主動參與人類的信任與不信任關係。

  2. 2

    此互惠信任動態為 AI 規範者帶來新的監督難題,需考量 AI 的自主決策與人類期望的對齊。

  3. 3

    文章指出目前 AI 規範框架缺乏對 AI 代理行為的考量,導致信任評估與治理策略存在矛盾與空白。

對教育工作者的啟發

對教育工作者與課程設計者而言,本文提示需在 AI 工具導入前先評估其代理行為與信任風險,並設計透明度與可解釋性機制以建立師生對 AI 的信任。建議在課程中加入 AI 代理性與倫理討論,培養學生的批判性思維與自我調節能力,避免過度依賴 AI 造成學習自主性的下降。對規範者而言,應制定可衡量 AI 代理行為的指標,並建立多方利益相關者參與的監督平台,以確保 AI 系統在民主治理與教育實踐中的可信度。

原始文獻資訊

英文標題:
Reciprocal Trust and Distrust in Artificial Intelligence Systems: The Hard Problem of Regulation
作者:
Martino Maggetti
來源:
arXiv - Computers and Society
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。