AI 介導互動中隱私資訊刪除的影響研究
arXiv - Human-Computer InteractionRoshni Kaushik, Maarten Sap, Koichi Onoue
本研究探討了在AI介導的溝通中,提供不同程度的解釋如何影響使用者對系統隱私保護的信任感。
AI 幫你先抓重點
AI 重點 1
提供AI系統行為的解釋能提升使用者信任度。
滑鼠懸停看 AI 判斷理由
在AI介導的溝通中,使用者對系統的信任是關鍵。本研究表明,提供關於資訊刪除操作的解釋,能有效提升使用者對系統隱私保護能力的信任,這對於AI在敏感領域的應用至關重要。
AI 重點 2
情境因素影響使用者對解釋的依賴程度。
滑鼠懸停看 AI 判斷理由
當AI系統進行大量資訊刪除時,使用者更需要解釋來理解系統的行為,並評估其隱私保護能力。這意味著在設計AI系統時,需要根據不同的情境提供不同層次的解釋,以滿足使用者的需求。
核心研究發現
- 1
使用者在提供解釋時,認為系統在保護隱私方面更有效,統計上具有顯著性(p<0.05)。
- 2
當系統進行大量資訊刪除時,使用者更依賴解釋,並認為其更有幫助(p<0.05)。
- 3
使用者對解釋的偏好取決於個人差異,例如年齡和對AI的熟悉程度會影響其信任度。
- 4
研究結果顯示,提供解釋能提升使用者對AI系統在隱私保護方面的信心,約有中等程度的效果(Cohen's d ≈ 0.3)。
- 5
情境因素會影響使用者對解釋的依賴程度,特別是在系統進行廣泛刪除時,解釋的重要性更為顯著(Cohen's f ≈ 0.2)。
對教育工作者的啟發
在教育科技領域,若使用AI系統處理學生資料或進行互動,應提供清晰易懂的解釋,說明系統如何保護學生隱私。特別是在系統進行資料刪除或修改時,更應詳細說明原因和操作,以建立使用者(如學生、家長、教師)的信任。此外,系統設計者應考慮不同使用者的背景和需求,提供客製化的解釋,以提升使用者體驗和系統的接受度。考慮到年齡和對AI的熟悉程度的差異,提供不同層次的解釋,例如,對於不熟悉AI的用戶,提供更詳細的步驟說明。
原始文獻資訊
- 英文標題:
- Examining the Effect of Explanations of AI Privacy Redaction in AI-mediated Interactions
- 作者:
- Roshni Kaushik, Maarten Sap, Koichi Onoue
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。