「我無法在你身邊」:同儕支持中的情緒勞動、責任與人工智慧
arXiv - Human-Computer InteractionKellie Yu Hui Sim, Kenny Tsu Wei Choo
研究探討同儕支持者在模糊的制度下承擔的情緒勞動,並指出 AI 的角色應聚焦於重新分配責任而非僅是擴大規模。
AI 幫你先抓重點
AI 重點 1
AI 的設計核心應從「規模化」轉向「責任分配」。
滑鼠懸停看 AI 判斷理由
過去開發 AI 往往追求覆蓋更多人的規模化,但本研究提醒,若不處理責任歸屬問題,AI 可能會加劇支持者的心理負擔,因此設計應優先考慮如何透過技術合理分擔風險。
AI 重點 2
技術介入不應僅視為功能增強,而應視為社會關係的重組。
滑鼠懸停看 AI 判斷理由
這改變了我們對 EdTech 或支持工具的理解:技術不只是工具,它會改變人與人之間的權力結構與情緒勞動分配,開發者必須意識到技術對人類情感勞動的潛在衝擊。
核心研究發現
- 1
同儕支持者的參與深受其生活經驗、道德承諾與自我認同影響,但也導致了支持範圍、權威與問責界限的模糊。
- 2
由於制度缺乏明確定義,情緒勞動、邊界設定與責任升級的壓力往往集中在個人身上,缺乏組織層面的支撐。
- 3
參與者評估 AI 的標準並非其同理心或技術能力,而是觀察技術如何重新分配支持角色中的風險、勞動與問責責任。
對教育工作者的啟發
對於設計數位學習社群或同儕支持系統的開發者而言,不應僅關注 AI 是否能提供「正確答案」或「溫暖回應」,而應建立明確的「責任框架」。建議在設計過程中,應包含自動化的風險升級機制(Escalation protocols),當 AI 偵測到超出支持者負荷的情緒需求時,能即時將責任轉移至專業人員,而非讓個人支持者獨自承擔情緒勞動與法律風險。此外,應在系統設計中明確界定 AI 與人類支持者的權限邊界,以保護支持者的心理健康。
原始文獻資訊
- 英文標題:
- "I'm Not Able to Be There for You": Emotional Labour, Responsibility, and AI in Peer Support
- 作者:
- Kellie Yu Hui Sim, Kenny Tsu Wei Choo
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- /models/gemma-4-26B-A4B-it
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。