設計抗污名:以人為本的LLM月經健康對話機器人
arXiv - Human-Computer InteractionAmna Shahnawaz, Ayesha Shafique, Ding Wang, Maryam Mustafa
在巴基斯坦,透過WhatsApp聊天機器人結合LLM與RAG,協助女性突破月經健康污名,提供可信、文化敏感的資訊,並提出以人為本的設計框架。
AI 幫你先抓重點
AI 重點 1
聊天機器人需具備文化敏感與污名化意識,才能在保守社會中有效傳遞健康資訊。
滑鼠懸停看 AI 判斷理由
此洞察強調僅部署AI不足以取得使用者信任,系統必須符合地方規範並處理污名,直接影響參與度與資訊接受度,為未來設計文化適應型健康對話機器人提供指引。
AI 重點 2
專家驗證與人類共設計是提升可信度的關鍵,尤其在親密健康領域。
滑鼠懸停看 AI 判斷理由
透過領域專家與目標使用者共同設計,可確保內容準確、相關且避免錯誤資訊,提升使用者信任與採用率,對敏感領域的實務應用至關重要。
AI 重點 3
羅馬烏爾都語支援顯示語言介入對使用率與滿意度的影響。
滑鼠懸停看 AI 判斷理由
提供符合當地方言的語言選項能縮短使用門檻、提升互動頻率,為多語言EdTech產品的本土化設計提供實證依據。
核心研究發現
- 1
30名女性工作坊揭示三大設計需求:羅馬烏爾都語支援、使用補貼平台、專家策劃知識庫。
- 2
兩週部署13名參與者共發送403條訊息,女性透過聊天機器人挑戰文化禁忌、確認健康疑慮並累積生殖健康知識。
- 3
互動中暴露信任與驗證問題、對文化解釋模型的依賴,以及聊天機器人性別化角色的張力。
對教育工作者的啟發
實務工作者可先進行目標族群工作坊,蒐集文化禁忌與語言需求,並以此為基礎設計聊天機器人介面。選用免費或補貼的即時通訊平台(如WhatsApp)可降低進入門檻,並確保訊息傳遞速度。為避免錯誤資訊,必須建立專家審核流程,將知識庫內容經過醫療專業人員驗證後再輸入系統。聊天機器人應採用中性或多元性別化角色,避免因性別偏見影響使用者信任。最後,透過短期使用測試與深度訪談收集回饋,持續優化對話內容與信任機制,確保在保守社會中能有效突破污名。
原始文獻資訊
- 英文標題:
- Designing Around Stigma: Human-Centered LLMs for Menstrual Health
- 作者:
- Amna Shahnawaz, Ayesha Shafique, Ding Wang, Maryam Mustafa
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- openai/gpt-oss-20b
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。