透過微調語言模型增強嵌入表示,優化學習者與題目之認知建模

arXiv - Computers and SocietyYuanhao Liu, Zihan Zhou, Kaiying Wu, Shuo Liu, Yiyang Huang, Jiajun Guo, Aimin Zhou, Hong Qian

提出 EduEmbed 框架,透過微調語言模型與文本適配器,解決認知診斷中語義與模型間的分布差異問題。

AI 幫你先抓重點

AI 重點 1

解決語言模型與認知診斷模型之間的「分布差距」問題。

滑鼠懸停看 AI 判斷理由
傳統做法直接套用預訓練模型常會因訓練目標不一致導致效果不佳,此研究提出的微調策略能讓通用語義真正轉化為教育領域的專業知識。
AI 重點 2

開發具備通用性的統一嵌入增強框架(EduEmbed)。

滑鼠懸停看 AI 判斷理由
這改變了過去針對不同診斷任務需開發不同模型的侷限,透過適配器技術實現了跨任務的語義整合,對於開發大規模智能教學系統具有高度實務價值。

核心研究發現

  1. 1

    EduEmbed 框架透過兩階段設計,第一階段利用角色特定表示與交互診斷器來彌合語言模型與認知診斷模型間的語義差距。

  2. 2

    第二階段透過文本適配器(Textual Adapter)提取任務相關語義,並將其與現有建模範式整合,提升了模型的泛化能力。

  3. 3

    在四項認知診斷(CD)任務與一項電腦化適應性測試(CAT)任務的評估中,該框架展現了穩健且優異的性能表現。

  4. 4

    研究分析揭示了語義資訊在不同認知診斷任務中的影響力,為未來在智能教育系統中應用語言模型提供了見解。

對教育工作者的啟發

對於開發數位學習平台的工程師而言,這項研究提供了將大型語言模型(LLM)整合進精準評量系統的技術路徑。實務上,不應僅將 LLM 作為生成內容的工具,而應透過「微調」與「適配器」技術,將其豐富的語義理解能力轉化為對學生知識狀態的精準診斷能力。這有助於開發出更具個性化、能理解題目語義細節的自適應學習系統,從而提供更精準的學習路徑建議。

原始文獻資訊

英文標題:
Embedding Enhancement via Fine-Tuned Language Models for Learner-Item Cognitive Modeling
作者:
Yuanhao Liu, Zihan Zhou, Kaiying Wu, Shuo Liu, Yiyang Huang, Jiajun Guo, Aimin Zhou, Hong Qian
來源:
arXiv - Computers and Society
AI 摘要模型:
/models/gemma-4-26B-A4B-it
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。