結構化與問題化:LLM 代理如何支撐診斷推理學習的鷹架設計
arXiv - Human-Computer InteractionFatma Bet\"ul G\"ure\c{s}, Tanya Nazaretsky, Seyed Parsa Neshaei, Tanja K\"aser
本研究探討 LLM 代理透過「結構化」與「問題化」兩種鷹架策略,對藥劑技術員診斷推理能力的影響。
AI 幫你先抓重點
AI 重點 1
鷹架策略的「功能分工」優於單一策略的選擇
滑鼠懸停看 AI 判斷理由
研究顯示不同鷹架對參與品質的影響不同,這意味著設計者不應尋求單一「最佳」策略,而應根據教學目標(如追求參與深度或準確度)來組合不同的 AI 互動模式。
AI 重點 2
情境複雜度是決定學習成效的關鍵變量
滑鼠懸停看 AI 判斷理由
當 AI 系統設計者開發模擬環境時,必須意識到情境難度對表現的影響力可能超越了 AI 輔助本身,這提醒我們在設計 EdTech 產品時,情境設計與 AI 鷹架需同步優化。
核心研究發現
- 1
兩種鷹架策略皆能有效支持學生運用診斷策略,且學習表現主要受情境複雜度影響,而非學生先備知識或鷹架類型。
- 2
「結構化」策略與學生更準確的主動參與(Active)及互動參與(Interactive)表現具有正相關。
- 3
「問題化」策略則能激發學生更高程度的建構性參與(Constructive engagement)。
對教育工作者的啟發
教育設計者在開發基於 LLM 的學習系統時,應採取「混合鷹架策略」。若目標是引導學生遵循正確的診斷步驟,應設計「結構化」的 AI 代理提供引導;若目標是深化批判性思考與建構知識,則應設計「問題化」的 AI 代理提出挑戰性問題。此外,系統應具備動態調整能力,能根據情境複雜度與學生的參與類型(主動、互動或建構)來切換不同的對話模式,以達到最佳的學習支撐效果。
原始文獻資訊
- 英文標題:
- Structuring versus Problematizing: How LLM-based Agents Scaffold Learning in Diagnostic Reasoning
- 作者:
- Fatma Bet\"ul G\"ure\c{s}, Tanya Nazaretsky, Seyed Parsa Neshaei, Tanja K\"aser
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- /models/gemma-4-26B-A4B-it
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。