設計抗污名:以人為本的LLM月經健康對話機器人

arXiv - Human-Computer InteractionAmna Shahnawaz, Ayesha Shafique, Ding Wang, Maryam Mustafa

在巴基斯坦,透過WhatsApp聊天機器人結合LLM與RAG,協助女性突破月經健康污名,提供可信、文化敏感的資訊,並提出以人為本的設計框架。

AI 幫你先抓重點

AI 重點 1

聊天機器人需具備文化敏感與污名化意識,才能在保守社會中有效傳遞健康資訊。

滑鼠懸停看 AI 判斷理由
此洞察強調僅部署AI不足以取得使用者信任,系統必須符合地方規範並處理污名,直接影響參與度與資訊接受度,為未來設計文化適應型健康對話機器人提供指引。
AI 重點 2

專家驗證與人類共設計是提升可信度的關鍵,尤其在親密健康領域。

滑鼠懸停看 AI 判斷理由
透過領域專家與目標使用者共同設計,可確保內容準確、相關且避免錯誤資訊,提升使用者信任與採用率,對敏感領域的實務應用至關重要。
AI 重點 3

羅馬烏爾都語支援顯示語言介入對使用率與滿意度的影響。

滑鼠懸停看 AI 判斷理由
提供符合當地方言的語言選項能縮短使用門檻、提升互動頻率,為多語言EdTech產品的本土化設計提供實證依據。

核心研究發現

  1. 1

    30名女性工作坊揭示三大設計需求:羅馬烏爾都語支援、使用補貼平台、專家策劃知識庫。

  2. 2

    兩週部署13名參與者共發送403條訊息,女性透過聊天機器人挑戰文化禁忌、確認健康疑慮並累積生殖健康知識。

  3. 3

    互動中暴露信任與驗證問題、對文化解釋模型的依賴,以及聊天機器人性別化角色的張力。

對教育工作者的啟發

實務工作者可先進行目標族群工作坊,蒐集文化禁忌與語言需求,並以此為基礎設計聊天機器人介面。選用免費或補貼的即時通訊平台(如WhatsApp)可降低進入門檻,並確保訊息傳遞速度。為避免錯誤資訊,必須建立專家審核流程,將知識庫內容經過醫療專業人員驗證後再輸入系統。聊天機器人應採用中性或多元性別化角色,避免因性別偏見影響使用者信任。最後,透過短期使用測試與深度訪談收集回饋,持續優化對話內容與信任機制,確保在保守社會中能有效突破污名。

原始文獻資訊

英文標題:
Designing Around Stigma: Human-Centered LLMs for Menstrual Health
作者:
Amna Shahnawaz, Ayesha Shafique, Ding Wang, Maryam Mustafa
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。