人機系統中的認知放大與委派:度量框架
arXiv - Computers and SocietyEduardo Di Santi
提出四項指標以區分 AI 促進人類認知與過度依賴,並強調設計時需考量長期人類認知可持續性。
AI 幫你先抓重點
AI 重點 1
認知可持續性約束的概念與實際應用
滑鼠懸停看 AI 判斷理由
此概念強調在追求短期效能提升時,必須保護人類長期專業能力,對於負責任的 AI 部署與教育實務具有關鍵指導意義。
AI 重點 2
四項操作性指標(CAI、D、HRI、HCDR)如何量化人機互動
滑鼠懸停看 AI 判斷理由
這些指標提供具體、可測量的工具,讓研究者與實務工作者能量化評估 AI 介入對人類認知的實際影響,進而做出設計調整。
核心研究發現
- 1
定義認知放大(Cognitive Amplification)與認知委派(Cognitive Delegation)的概念差異。
- 2
建立四個操作性度量:CAI、D、HRI、HCDR,形成低維度評估空間。
- 3
發現短期混合效能提升不必然保證長期人類專業維持,揭示設計張力。
- 4
提出「認知可持續性約束」作為人機系統設計原則,避免人類專業退化。
- 5
框架可用於評估不同 AI 介入模式對人類認知影響,促進更負責任的 AI 部署。
對教育工作者的啟發
對教育工作者而言,首先可將框架中的四項指標納入 AI 工具評估流程,設定 CAI 與 HCDR 的門檻值,確保 AI 介入不致使教師或學生的認知能力退化。其次,透過定期監測 HRI 與 D,了解人機互動的依賴程度,並在必要時調整教學策略或提供補充訓練,以維持人類專業。最後,將認知可持續性約束納入課程設計與 AI 系統開發的評估指標,可促進更負責任的 AI 部署,並提升學習成效與教師專業發展。
原始文獻資訊
- 英文標題:
- Cognitive Amplification vs Cognitive Delegation in Human-AI Systems: A Metric Framework
- 作者:
- Eduardo Di Santi
- 來源:
- arXiv - Computers and Society
- AI 摘要模型:
- openai/gpt-oss-20b
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。