HarassGuard:利用視訊語言模型偵測社群虛擬實境騷擾

arXiv - Human-Computer InteractionJunhee Lee, Minseok Kim, Hwanjo Heo, Seungwon Woo, Jinwoo Kim

本研究提出 HarassGuard,一個基於視訊語言模型的系統,能僅利用視覺輸入偵測社群虛擬實境中的肢體騷擾,兼顧隱私與準確性。

AI 幫你先抓重點

AI 重點 1

視訊語言模型在虛擬實境騷擾偵測的應用。

滑鼠懸停看 AI 判斷理由
此研究首次展示了利用視訊語言模型,僅透過視覺輸入就能有效偵測虛擬實境中的騷擾行為,這對於提升虛擬社群的安全性和使用者福祉至關重要,也為未來相關技術發展提供了新的方向。
AI 重點 2

低樣本量微調的優勢。

滑鼠懸停看 AI 判斷理由
HarassGuard 僅需少量微調樣本就能達到與其他模型相似的效能,這意味著在資料收集困難或隱私限制較高的情況下,也能建立有效的騷擾偵測系統,具有更廣泛的應用潛力。

核心研究發現

  1. 1

    HarassGuard 系統能有效偵測社群虛擬實境中的肢體騷擾行為,無需使用敏感的生物特徵資料,保護使用者隱私。

  2. 2

    透過 prompt engineering 與微調,HarassGuard 在二元分類任務中達到 88.09% 的準確度,在多類別分類任務中達到 68.85% 的準確度。

  3. 3

    相較於傳統的 LSTM/CNN 和 Transformer 模型,HarassGuard 僅需較少的微調樣本(200 vs. 1,115)就能達到相似的效能,降低了資料收集的成本。

  4. 4

    研究團隊構建了一個經過 IRB 審核的騷擾視覺資料集,為未來相關研究提供了寶貴的資源。

  5. 5

    HarassGuard 展現了在社交虛擬實境中,利用視訊語言模型進行上下文推理和隱私保護偵測的潛力。

對教育工作者的啟發

此研究為虛擬實境平台的安全設計提供了新的思路,強調了利用視覺資訊進行騷擾偵測的可行性,並降低了對使用者生物特徵資料的依賴。平台開發者可以考慮導入類似 HarassGuard 的系統,提升社群環境的安全性。此外,研究也提醒我們,在設計虛擬社群時,應重視使用者隱私的保護,並積極探索更有效的騷擾偵測方法。

原始文獻資訊

英文標題:
HarassGuard: Detecting Harassment Behaviors in Social Virtual Reality with Vision-Language Models
作者:
Junhee Lee, Minseok Kim, Hwanjo Heo, Seungwon Woo, Jinwoo Kim
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。