練習較少,解釋更多:LLM 輔助自我解釋提升微積分轉移問題的解釋品質
arXiv - Human-Computer InteractionEason Chen, Xinyi Tang, Yvonne Zhao, Meiyi Chen, Meryam Elmir, Elizabeth McLaughlin, Mingyu Yuan, Yumo Wang, Shyam Agarwal, Jared Cochrane, Jionghao Lin, Tongshuang Wu, Ken Koedinger
本研究發現,透過 LLM 輔助的開放式自我解釋,能提升學生在微積分轉移問題中,特別是「資訊不足」問題的解釋品質。
AI 幫你先抓重點
AI 重點 1
LLM 輔助的開放式自我解釋提升解釋品質。
滑鼠懸停看 AI 判斷理由
此發現對於教育科技的應用具有重要意義,表明 LLM 不僅能提供答案,更能引導學生深入思考並提升其問題解決能力,尤其是在需要更多資訊的複雜問題上。這也暗示了未來教育系統中,LLM 可以扮演更積極的輔導角色。
AI 重點 2
減少練習量,提升解釋品質。
滑鼠懸停看 AI 判斷理由
此結果挑戰了傳統的「大量練習」學習模式,表明更注重解釋過程的學習策略,即使在練習量較少的情況下,也能達到良好的學習效果。這對於時間有限的學習環境,或是希望提升學生深度理解的教育者來說,具有重要的參考價值。
核心研究發現
- 1
在微積分學習環境中,開放式自我解釋(搭配 LLM 回饋)能顯著提升學生在「資訊不足」問題上的解釋品質,相較於對照組。
- 2
雖然解釋品質提升,但開放式自我解釋組在「資訊不足」問題的選擇題正確率上,並未顯示出顯著優勢。
- 3
在所有轉移問題的開放式解釋中,開放式自我解釋組的表現略有優勢,但統計意義不強。
- 4
即使開放式自我解釋組在相同的學習時間內完成較少的練習題,仍能觀察到上述效果。
- 5
所有條件的學習者在固定 60 分鐘的練習過程中,都展現了正向的學習成效,但條件間的差異並未達到統計顯著。
對教育工作者的啟發
教育工作者可以考慮在微積分等需要深度理解的課程中,導入 LLM 輔助的開放式自我解釋策略。這不僅能提升學生對概念的理解,也能培養其批判性思考和問題解決能力。此外,不必過度強調練習量,更應鼓勵學生在解題過程中進行深入的自我解釋,並利用 LLM 的回饋來優化其思考過程。在設計課程時,可以提供開放式的問題,並引導學生逐步解釋其解題思路,同時利用 LLM 提供即時且個性化的回饋。
原始文獻資訊
- 英文標題:
- Practice Less, Explain More: LLM-Supported Self-Explanation Improves Explanation Quality on Transfer Problems in Calculus
- 作者:
- Eason Chen, Xinyi Tang, Yvonne Zhao, Meiyi Chen, Meryam Elmir, Elizabeth McLaughlin, Mingyu Yuan, Yumo Wang, Shyam Agarwal, Jared Cochrane, Jionghao Lin, Tongshuang Wu, Ken Koedinger
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。