明日方舟:可玩解釋與不透明性下的玩家能動性
arXiv - Human-Computer InteractionShuai Guo
本研究探討遊戲如何作為可解釋介面,透過互動建構解釋,並重新組織玩家的能動性,從直接控制轉向解釋性推理。
AI 幫你先抓重點
AI 重點 1
「解釋性能動性」的概念具有重要意義。
滑鼠懸停看 AI 判斷理由
此概念挑戰了傳統 XAI 的透明性導向,強調玩家透過互動建構理解的重要性,對於設計更具參與性的 AI 介面具有啟發作用,尤其是在教育科技領域。
AI 重點 2
PRTS 的設計模式揭示了不透明性的潛在價值。
滑鼠懸停看 AI 判斷理由
研究表明,適度的不透明性可以促使玩家進行更深入的推理和探索,而非阻礙理解,這對於設計引導學習和問題解決的教育遊戲至關重要。
核心研究發現
- 1
遊戲《明日方舟》中的 AI 系統 PRTS 提供可用的但不可驗證的解釋,足以引發行動,但不足以建立穩固的因果理解。
- 2
PRTS 透過不完全資訊、延遲回饋和信任的敘事中斷,重新組織玩家的能動性,使其從直接控制轉向解釋性推理。
- 3
研究提出了「解釋性能動性」的概念,指玩家透過互動過程理解系統運作的能動性,而非僅僅是控制系統。
- 4
PRTS 的設計模式暗示,不透明性並非阻礙理解,而是創造理解的必要條件,促使玩家積極參與解釋過程。
- 5
此研究挑戰了傳統的 XAI 模式,認為透過遊戲化的互動,可以建構出更具參與性和有效性的解釋介面。
對教育工作者的啟發
此研究啟示教育工作者,在設計學習系統時,不應過度追求透明性,而應考慮如何透過互動和不完全資訊,引導學習者進行更深入的探索和推理。例如,在設計模擬情境時,可以刻意隱藏部分資訊,鼓勵學習者透過觀察、實驗和合作,逐步揭示系統的運作機制,提升學習效果。此外,遊戲化的設計元素可以增加學習的趣味性和參與度,促進學習者對知識的內化和應用。
原始文獻資訊
- 英文標題:
- Arknights: Playable Explanation and Player Agency under Opacity
- 作者:
- Shuai Guo
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。