「我無法在你身邊」:同儕支持中的情緒勞動、責任與人工智慧

arXiv - Human-Computer InteractionKellie Yu Hui Sim, Kenny Tsu Wei Choo

研究探討同儕支持者在模糊的制度下承擔的情緒勞動,並指出 AI 的角色應聚焦於重新分配責任而非僅是擴大規模。

AI 幫你先抓重點

AI 重點 1

AI 的設計核心應從「規模化」轉向「責任分配」。

滑鼠懸停看 AI 判斷理由
過去開發 AI 往往追求覆蓋更多人的規模化,但本研究提醒,若不處理責任歸屬問題,AI 可能會加劇支持者的心理負擔,因此設計應優先考慮如何透過技術合理分擔風險。
AI 重點 2

技術介入不應僅視為功能增強,而應視為社會關係的重組。

滑鼠懸停看 AI 判斷理由
這改變了我們對 EdTech 或支持工具的理解:技術不只是工具,它會改變人與人之間的權力結構與情緒勞動分配,開發者必須意識到技術對人類情感勞動的潛在衝擊。

核心研究發現

  1. 1

    同儕支持者的參與深受其生活經驗、道德承諾與自我認同影響,但也導致了支持範圍、權威與問責界限的模糊。

  2. 2

    由於制度缺乏明確定義,情緒勞動、邊界設定與責任升級的壓力往往集中在個人身上,缺乏組織層面的支撐。

  3. 3

    參與者評估 AI 的標準並非其同理心或技術能力,而是觀察技術如何重新分配支持角色中的風險、勞動與問責責任。

對教育工作者的啟發

對於設計數位學習社群或同儕支持系統的開發者而言,不應僅關注 AI 是否能提供「正確答案」或「溫暖回應」,而應建立明確的「責任框架」。建議在設計過程中,應包含自動化的風險升級機制(Escalation protocols),當 AI 偵測到超出支持者負荷的情緒需求時,能即時將責任轉移至專業人員,而非讓個人支持者獨自承擔情緒勞動與法律風險。此外,應在系統設計中明確界定 AI 與人類支持者的權限邊界,以保護支持者的心理健康。

原始文獻資訊

英文標題:
"I'm Not Able to Be There for You": Emotional Labour, Responsibility, and AI in Peer Support
作者:
Kellie Yu Hui Sim, Kenny Tsu Wei Choo
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
/models/gemma-4-26B-A4B-it
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。