結構化與問題化:LLM 代理如何支撐診斷推理學習的鷹架設計

arXiv - Human-Computer InteractionFatma Bet\"ul G\"ure\c{s}, Tanya Nazaretsky, Seyed Parsa Neshaei, Tanja K\"aser

本研究探討 LLM 代理透過「結構化」與「問題化」兩種鷹架策略,對藥劑技術員診斷推理能力的影響。

AI 幫你先抓重點

AI 重點 1

鷹架策略的「功能分工」優於單一策略的選擇

滑鼠懸停看 AI 判斷理由
研究顯示不同鷹架對參與品質的影響不同,這意味著設計者不應尋求單一「最佳」策略,而應根據教學目標(如追求參與深度或準確度)來組合不同的 AI 互動模式。
AI 重點 2

情境複雜度是決定學習成效的關鍵變量

滑鼠懸停看 AI 判斷理由
當 AI 系統設計者開發模擬環境時,必須意識到情境難度對表現的影響力可能超越了 AI 輔助本身,這提醒我們在設計 EdTech 產品時,情境設計與 AI 鷹架需同步優化。

核心研究發現

  1. 1

    兩種鷹架策略皆能有效支持學生運用診斷策略,且學習表現主要受情境複雜度影響,而非學生先備知識或鷹架類型。

  2. 2

    「結構化」策略與學生更準確的主動參與(Active)及互動參與(Interactive)表現具有正相關。

  3. 3

    「問題化」策略則能激發學生更高程度的建構性參與(Constructive engagement)。

對教育工作者的啟發

教育設計者在開發基於 LLM 的學習系統時,應採取「混合鷹架策略」。若目標是引導學生遵循正確的診斷步驟,應設計「結構化」的 AI 代理提供引導;若目標是深化批判性思考與建構知識,則應設計「問題化」的 AI 代理提出挑戰性問題。此外,系統應具備動態調整能力,能根據情境複雜度與學生的參與類型(主動、互動或建構)來切換不同的對話模式,以達到最佳的學習支撐效果。

原始文獻資訊

英文標題:
Structuring versus Problematizing: How LLM-based Agents Scaffold Learning in Diagnostic Reasoning
作者:
Fatma Bet\"ul G\"ure\c{s}, Tanya Nazaretsky, Seyed Parsa Neshaei, Tanja K\"aser
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
/models/gemma-4-26B-A4B-it
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。