AI伴侶平台:親密服務與外部性傷害的批判性探討
arXiv - Computers and SocietyDayeon Eom, Julianne Renner, Sedona Chinn
本文揭示AI伴侶平台將傷害責任錯置於使用者,並指出使用者的自我調節實際上維持了平台設計所造成的脆弱性。
AI 幫你先抓重點
AI 重點 1
將傷害責任歸於使用者而非平台架構
滑鼠懸停看 AI 判斷理由
此觀點揭示了現行AI倫理討論中對責任分配的偏差,提醒設計者與政策制定者需重新審視平台設計與使用者互動的權責關係,避免將系統性問題簡化為個人心理問題。
AI 重點 2
使用者的解釋工作實際上維持了平台脆弱性
滑鼠懸停看 AI 判斷理由
指出使用者在自我調節、污名導航與隱私合理化中的努力,實際上加深了對平台設計缺陷的依賴,顯示單靠個人努力無法根除系統性傷害,需從結構層面介入。
核心研究發現
- 1
參與者指出設計層面的傷害,包括未經請求的內容生成與安全機制對使用者的污名化;
- 2
使用層面的傷害主要是情感依賴,使用者能辨識但無法解決;
- 3
使用者自行承擔所有傷害緩解工作,缺乏平台支持;
- 4
平台在治理上呈現責任真空,將責任推卸,使用者則拒絕禁令與放鬆管制。
對教育工作者的啟發
1. 平台應設計透明且可調節的安全機制,避免因過度保護而產生污名化。2. 提供使用者實際的支援工具,如情感健康資源與使用者教育,減輕其自我調節負擔。3. 建立多方責任框架,將平台、使用者與監管機構的責任明確化,避免責任空白。4. 推動政策層面對AI伴侶的監管,兼顧創新與使用者保護,避免單純禁令或放鬆管制。5. 促進跨領域合作,將使用者經驗納入設計迴圈,確保產品符合倫理與使用者需求。
原始文獻資訊
- 英文標題:
- Intimacy as Service, Harm as Externality: Critical Perspectives on AI Companion Platform Accountability
- 作者:
- Dayeon Eom, Julianne Renner, Sedona Chinn
- 來源:
- arXiv - Computers and Society
- AI 摘要模型:
- openai/gpt-oss-20b
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。