HarassGuard:利用視訊語言模型偵測社群虛擬實境騷擾
arXiv - Human-Computer InteractionJunhee Lee, Minseok Kim, Hwanjo Heo, Seungwon Woo, Jinwoo Kim
本研究提出 HarassGuard,一個基於視訊語言模型的系統,能僅利用視覺輸入偵測社群虛擬實境中的肢體騷擾,兼顧隱私與準確性。
AI 幫你先抓重點
AI 重點 1
視訊語言模型在虛擬實境騷擾偵測的應用。
滑鼠懸停看 AI 判斷理由
此研究首次展示了利用視訊語言模型,僅透過視覺輸入就能有效偵測虛擬實境中的騷擾行為,這對於提升虛擬社群的安全性和使用者福祉至關重要,也為未來相關技術發展提供了新的方向。
AI 重點 2
低樣本量微調的優勢。
滑鼠懸停看 AI 判斷理由
HarassGuard 僅需少量微調樣本就能達到與其他模型相似的效能,這意味著在資料收集困難或隱私限制較高的情況下,也能建立有效的騷擾偵測系統,具有更廣泛的應用潛力。
核心研究發現
- 1
HarassGuard 系統能有效偵測社群虛擬實境中的肢體騷擾行為,無需使用敏感的生物特徵資料,保護使用者隱私。
- 2
透過 prompt engineering 與微調,HarassGuard 在二元分類任務中達到 88.09% 的準確度,在多類別分類任務中達到 68.85% 的準確度。
- 3
相較於傳統的 LSTM/CNN 和 Transformer 模型,HarassGuard 僅需較少的微調樣本(200 vs. 1,115)就能達到相似的效能,降低了資料收集的成本。
- 4
研究團隊構建了一個經過 IRB 審核的騷擾視覺資料集,為未來相關研究提供了寶貴的資源。
- 5
HarassGuard 展現了在社交虛擬實境中,利用視訊語言模型進行上下文推理和隱私保護偵測的潛力。
對教育工作者的啟發
此研究為虛擬實境平台的安全設計提供了新的思路,強調了利用視覺資訊進行騷擾偵測的可行性,並降低了對使用者生物特徵資料的依賴。平台開發者可以考慮導入類似 HarassGuard 的系統,提升社群環境的安全性。此外,研究也提醒我們,在設計虛擬社群時,應重視使用者隱私的保護,並積極探索更有效的騷擾偵測方法。
原始文獻資訊
- 英文標題:
- HarassGuard: Detecting Harassment Behaviors in Social Virtual Reality with Vision-Language Models
- 作者:
- Junhee Lee, Minseok Kim, Hwanjo Heo, Seungwon Woo, Jinwoo Kim
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。