個別化自動寫作回饋中的語言偏見探討
arXiv - Human-Computer InteractionMei Tan, Lena Phalen, Dorottya Demszky
研究顯示大型語言模型在提供寫作回饋時,會根據學生性別、種族、學習需求等屬性產生刻板印象偏差,揭示自動化回饋的隱形偏見。
AI 幫你先抓重點
AI 重點 1
Marked Pedagogies概念及其對回饋偏差的定義
滑鼠懸停看 AI 判斷理由
此概念將偏差具體化為教學取向,幫助研究者與實務者辨識並量化自動回饋中的不公平性,對後續改進工具至關重要。
AI 重點 2
四大LLM在不同學生屬性下的回饋差異實證
滑鼠懸停看 AI 判斷理由
透過實驗設計,證明即使作文相同,模型仍會根據性別、種族等屬性產生差異,凸顯自動化回饋系統的隱形偏見,提醒設計者需審慎調整。
AI 重點 3
使用Marked Words框架分析詞彙變化
滑鼠懸停看 AI 判斷理由
此方法提供可操作的量化工具,可在未來評估其他自動回饋系統的語言偏差,對研究與實務皆具參考價值。
核心研究發現
- 1
模型在回饋中對種族、語言或殘障學生表現出正面回饋偏差,過度讚美且缺乏具體批評。
- 2
即使原始作文內容相同,模型根據嵌入的學生屬性調整回饋語氣與重點,顯示個別化回饋的語言偏差。
- 3
對於學習需求或成就較低的學生,模型往往假設能力有限,回饋中減少挑戰性建議。
- 4
不同模型(GPT-4o、GPT-3.5-turbo、Llama-3.3 70B、Llama-3.1 8B)均呈現類似的刻板印象傾向,顯示偏差並非單一模型特有。
- 5
作者提出「Marked Pedagogies」概念,強調自動回饋工具需具備透明度與問責制,以避免加劇教育不平等。
對教育工作者的啟發
為避免自動回饋系統加劇教育不平等,實務者應先建立多元化語料庫並進行偏差審查;其次,將回饋生成流程透明化,讓教師能檢視並調整AI建議;再者,設計可調節的個別化參數,避免過度依賴模型預設;最後,提供教師AI回饋偏差的培訓,提升其對學生差異化需求的敏感度,進而在課堂上更有效地運用AI輔助寫作。
原始文獻資訊
- 英文標題:
- Marked Pedagogies: Examining Linguistic Biases in Personalized Automated Writing Feedback
- 作者:
- Mei Tan, Lena Phalen, Dorottya Demszky
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- openai/gpt-oss-20b
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。