可解釋AI於視障使用者:信任、模態與代理性時代的解讀
arXiv - Human-Computer InteractionAbu Noman Md Sakib, Protik Dey, Zijie Zhang, Taslima Akter
本研究探討了可解釋AI(XAI)在協助視障及低視力使用者時的獨特需求,強調多模式介面、以使用者為中心的設計,以及對AI錯誤的理解。
AI 幫你先抓重點
AI 重點 1
關注AI代理系統中的「自責」現象。
滑鼠懸停看 AI 判斷理由
此現象揭示了XAI設計中容易忽略的心理層面,若使用者將AI錯誤歸咎於自身,將阻礙其對AI的信任與持續使用,影響學習成效。理解並解決此問題,有助於設計更人性化的AI輔助工具。
AI 重點 2
強調多模式介面在XAI中的重要性。
滑鼠懸停看 AI 判斷理由
視障使用者主要依賴非視覺資訊,因此單純的視覺化解釋毫無意義。研究指出,設計者應積極探索並整合其他感官模式,例如語音、觸覺等,以提供更全面的AI解釋,提升可及性與使用者體驗。
核心研究發現
- 1
針對視障及低視力(BLV)使用者,缺乏易於存取的AI解釋是阻礙其獨立使用AI輔助技術的主要障礙。
- 2
隨著AI系統從單一查詢工具轉向自主代理者,其複雜性增加,單一錯誤可能在未被察覺的情況下累積。
- 3
BLV使用者高度重視對話式的AI解釋,但同時也容易將AI的失敗歸咎於自身,產生「自責」情緒。
- 4
研究發現存在著「模態差距」,即現有的XAI技術未能充分利用BLV使用者偏好的非視覺溝通方式。
- 5
參與式設計和多模式介面對於開發可及的XAI系統至關重要,能提升BLV使用者對AI的信任和理解。
對教育工作者的啟發
教育工作者應意識到,AI輔助工具的設計不僅要注重功能性,更要考慮使用者體驗和心理因素。在導入AI技術時,應提供充分的解釋和支持,幫助視障學生理解AI的運作原理,並建立對AI的信任感。此外,鼓勵參與式設計,讓視障使用者參與到AI系統的開發過程中,確保其需求得到充分滿足。開發者應積極探索多模式介面,提供語音、觸覺等非視覺的AI解釋,提升可及性。
原始文獻資訊
- 英文標題:
- Explainable AI for Blind and Low-Vision Users: Navigating Trust, Modality, and Interpretability in the Agentic Era
- 作者:
- Abu Noman Md Sakib, Protik Dey, Zijie Zhang, Taslima Akter
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。