人機系統中的認知放大與委派:度量框架

arXiv - Computers and SocietyEduardo Di Santi

提出四項指標以區分 AI 促進人類認知與過度依賴,並強調設計時需考量長期人類認知可持續性。

AI 幫你先抓重點

AI 重點 1

認知可持續性約束的概念與實際應用

滑鼠懸停看 AI 判斷理由
此概念強調在追求短期效能提升時,必須保護人類長期專業能力,對於負責任的 AI 部署與教育實務具有關鍵指導意義。
AI 重點 2

四項操作性指標(CAI、D、HRI、HCDR)如何量化人機互動

滑鼠懸停看 AI 判斷理由
這些指標提供具體、可測量的工具,讓研究者與實務工作者能量化評估 AI 介入對人類認知的實際影響,進而做出設計調整。

核心研究發現

  1. 1

    定義認知放大(Cognitive Amplification)與認知委派(Cognitive Delegation)的概念差異。

  2. 2

    建立四個操作性度量:CAI、D、HRI、HCDR,形成低維度評估空間。

  3. 3

    發現短期混合效能提升不必然保證長期人類專業維持,揭示設計張力。

  4. 4

    提出「認知可持續性約束」作為人機系統設計原則,避免人類專業退化。

  5. 5

    框架可用於評估不同 AI 介入模式對人類認知影響,促進更負責任的 AI 部署。

對教育工作者的啟發

對教育工作者而言,首先可將框架中的四項指標納入 AI 工具評估流程,設定 CAI 與 HCDR 的門檻值,確保 AI 介入不致使教師或學生的認知能力退化。其次,透過定期監測 HRI 與 D,了解人機互動的依賴程度,並在必要時調整教學策略或提供補充訓練,以維持人類專業。最後,將認知可持續性約束納入課程設計與 AI 系統開發的評估指標,可促進更負責任的 AI 部署,並提升學習成效與教師專業發展。

原始文獻資訊

英文標題:
Cognitive Amplification vs Cognitive Delegation in Human-AI Systems: A Metric Framework
作者:
Eduardo Di Santi
來源:
arXiv - Computers and Society
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。