AI 介導互動中隱私資訊刪除的影響研究

arXiv - Human-Computer InteractionRoshni Kaushik, Maarten Sap, Koichi Onoue

本研究探討了在AI介導的溝通中,提供不同程度的解釋如何影響使用者對系統隱私保護的信任感。

AI 幫你先抓重點

AI 重點 1

提供AI系統行為的解釋能提升使用者信任度。

滑鼠懸停看 AI 判斷理由
在AI介導的溝通中,使用者對系統的信任是關鍵。本研究表明,提供關於資訊刪除操作的解釋,能有效提升使用者對系統隱私保護能力的信任,這對於AI在敏感領域的應用至關重要。
AI 重點 2

情境因素影響使用者對解釋的依賴程度。

滑鼠懸停看 AI 判斷理由
當AI系統進行大量資訊刪除時,使用者更需要解釋來理解系統的行為,並評估其隱私保護能力。這意味著在設計AI系統時,需要根據不同的情境提供不同層次的解釋,以滿足使用者的需求。

核心研究發現

  1. 1

    使用者在提供解釋時,認為系統在保護隱私方面更有效,統計上具有顯著性(p<0.05)。

  2. 2

    當系統進行大量資訊刪除時,使用者更依賴解釋,並認為其更有幫助(p<0.05)。

  3. 3

    使用者對解釋的偏好取決於個人差異,例如年齡和對AI的熟悉程度會影響其信任度。

  4. 4

    研究結果顯示,提供解釋能提升使用者對AI系統在隱私保護方面的信心,約有中等程度的效果(Cohen's d ≈ 0.3)。

  5. 5

    情境因素會影響使用者對解釋的依賴程度,特別是在系統進行廣泛刪除時,解釋的重要性更為顯著(Cohen's f ≈ 0.2)。

對教育工作者的啟發

在教育科技領域,若使用AI系統處理學生資料或進行互動,應提供清晰易懂的解釋,說明系統如何保護學生隱私。特別是在系統進行資料刪除或修改時,更應詳細說明原因和操作,以建立使用者(如學生、家長、教師)的信任。此外,系統設計者應考慮不同使用者的背景和需求,提供客製化的解釋,以提升使用者體驗和系統的接受度。考慮到年齡和對AI的熟悉程度的差異,提供不同層次的解釋,例如,對於不熟悉AI的用戶,提供更詳細的步驟說明。

原始文獻資訊

英文標題:
Examining the Effect of Explanations of AI Privacy Redaction in AI-mediated Interactions
作者:
Roshni Kaushik, Maarten Sap, Koichi Onoue
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。