明日方舟:可玩解釋與不透明性下的玩家能動性

arXiv - Human-Computer InteractionShuai Guo

本研究探討遊戲如何作為可解釋介面,透過互動建構解釋,並重新組織玩家的能動性,從直接控制轉向解釋性推理。

AI 幫你先抓重點

AI 重點 1

「解釋性能動性」的概念具有重要意義。

滑鼠懸停看 AI 判斷理由
此概念挑戰了傳統 XAI 的透明性導向,強調玩家透過互動建構理解的重要性,對於設計更具參與性的 AI 介面具有啟發作用,尤其是在教育科技領域。
AI 重點 2

PRTS 的設計模式揭示了不透明性的潛在價值。

滑鼠懸停看 AI 判斷理由
研究表明,適度的不透明性可以促使玩家進行更深入的推理和探索,而非阻礙理解,這對於設計引導學習和問題解決的教育遊戲至關重要。

核心研究發現

  1. 1

    遊戲《明日方舟》中的 AI 系統 PRTS 提供可用的但不可驗證的解釋,足以引發行動,但不足以建立穩固的因果理解。

  2. 2

    PRTS 透過不完全資訊、延遲回饋和信任的敘事中斷,重新組織玩家的能動性,使其從直接控制轉向解釋性推理。

  3. 3

    研究提出了「解釋性能動性」的概念,指玩家透過互動過程理解系統運作的能動性,而非僅僅是控制系統。

  4. 4

    PRTS 的設計模式暗示,不透明性並非阻礙理解,而是創造理解的必要條件,促使玩家積極參與解釋過程。

  5. 5

    此研究挑戰了傳統的 XAI 模式,認為透過遊戲化的互動,可以建構出更具參與性和有效性的解釋介面。

對教育工作者的啟發

此研究啟示教育工作者,在設計學習系統時,不應過度追求透明性,而應考慮如何透過互動和不完全資訊,引導學習者進行更深入的探索和推理。例如,在設計模擬情境時,可以刻意隱藏部分資訊,鼓勵學習者透過觀察、實驗和合作,逐步揭示系統的運作機制,提升學習效果。此外,遊戲化的設計元素可以增加學習的趣味性和參與度,促進學習者對知識的內化和應用。

原始文獻資訊

英文標題:
Arknights: Playable Explanation and Player Agency under Opacity
作者:
Shuai Guo
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。