眼睛對視:透過共享第一人稱視角實現人機協作中的認知對齊

arXiv - Human-Computer InteractionZhuyu Teng, Pei Chen, Yichen Cai, Ruoqing Lu, Zhaoqu Jiang, Jiayang Li, Weitao You, Lingyun Sun

Eye2Eye框架利用第一人稱視角,透過共同注意、可修正記憶與反思回饋,顯著提升人機協作效率與信任度。

AI 幫你先抓重點

AI 重點 1

共享第一人稱視角作為溝通通道

滑鼠懸停看 AI 判斷理由
此視角直接將使用者的視線、手勢等非語言訊息映射至AI,克服了傳統語音指令的頻道不匹配問題,從而大幅降低溝通失誤。
AI 重點 2

可修正記憶與反思回饋的結合

滑鼠懸停看 AI 判斷理由
結合可修正記憶與即時回饋,能持續更新共同基礎,確保AI對情境的理解與使用者期望同步,提升長期協作的穩定性與信任。

核心研究發現

  1. 1

    Eye2Eye框架透過共享第一人稱視角,將使用者的並行意圖直接映射至AI,顯著縮小了傳統語音指令造成的溝通缺口。

  2. 2

    透過共同注意協調,Eye2Eye能即時同步雙方焦點,避免視線偏差造成的協作延遲。

  3. 3

    可修正記憶模組允許使用者隨時更新共同基礎,確保AI對情境的理解保持最新。

  4. 4

    反思回饋機制提供即時澄清與調整,使用者能在協作過程中快速修正AI誤解。

  5. 5

    實驗結果顯示,Eye2Eye在任務完成時間、互動負荷與使用者信任度三項指標上均優於對照組。

對教育工作者的啟發

Eye2Eye證明,將第一人稱視角嵌入AR/VR工具能顯著提升人機協作效率。實務工作者可先從三個核心模組入手:1) 共同注意協調,透過視線追蹤或手勢同步,確保雙方焦點一致;2) 可修正記憶,允許使用者在協作過程中隨時更新共享資訊,避免資訊過時;3) 反思回饋,提供即時澄清介面,讓使用者能快速修正AI誤解。將這三個模組結合,可減少指令錯誤、降低互動負荷,並提升使用者信任。教育機構可將此框架應用於實驗室協作、遠距教學或課堂互動,並透過使用者測試調整介面設計,確保符合學習者需求。

原始文獻資訊

英文標題:
Seeing Eye to Eye: Enabling Cognitive Alignment Through Shared First-Person Perspective in Human-AI Collaboration
作者:
Zhuyu Teng, Pei Chen, Yichen Cai, Ruoqing Lu, Zhaoqu Jiang, Jiayang Li, Weitao You, Lingyun Sun
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。