以設計引導的揭露:對話型 AI 的身份透明度

arXiv - Human-Computer InteractionAnna Gausen, Sarenne Wallbridge, Hannah Rose Kirk, Jennifer Williams, Christopher Summerfield

本文探討了在人機互動日益模糊的背景下,如何設計對話型 AI 系統以確保身份透明度,避免使用者誤信或洩露敏感資訊。

AI 幫你先抓重點

AI 重點 1

AI 應優先關注「以設計引導的揭露」策略。

滑鼠懸停看 AI 判斷理由
此策略能有效解決 AI 身份不明帶來的信任與安全問題,並在不影響使用者體驗的前提下,提升 AI 系統的透明度,這對於建立可靠的人機互動至關重要。
AI 重點 2

了解現行透明度機制的局限性至關重要。

滑鼠懸停看 AI 判斷理由
文章指出現有機制(如介面指示、溯源工具)存在缺陷,無法確保即時且可靠的身份揭露。了解這些限制有助於設計者開發更完善的解決方案,避免使用者受到誤導。

核心研究發現

  1. 1

    使用者在與 AI 系統互動時,若 AI 身份不明,可能無意中分享敏感資訊或對 AI 產生的建議產生不必要的信任。

  2. 2

    現行的透明度機制存在不足,例如介面指示可能被部署者省略,而溯源工具需要協調基礎設施且無法提供即時驗證。

  3. 3

    研究提倡「以設計引導的揭露」策略,即 AI 系統在被直接詢問時,明確揭露其人工身份。

  4. 4

    此策略能確保身份揭露不依賴使用者介面,並賦予使用者按需驗證身份的權力,同時不干擾沉浸式使用情境。

  5. 5

    研究呈現了首次針對部署系統進行的多模式(文字與語音)揭露行為評估,旨在了解現行實踐的狀況。

對教育工作者的啟發

教育科技設計者應將 AI 身份透明度納入系統設計的初期階段,而非事後補救。可以考慮在 AI 系統中建立內建的身份揭露機制,並允許使用者在任何時候查詢 AI 的身份。此外,應避免過度依賴使用者介面,以確保透明度不受部署環境的影響。在教育應用中,這對於建立學生對 AI 輔助學習工具的信任至關重要,並有助於培養學生批判性思考的能力。

原始文獻資訊

英文標題:
Disclosure By Design: Identity Transparency as a Behavioural Property of Conversational AI Models
作者:
Anna Gausen, Sarenne Wallbridge, Hannah Rose Kirk, Jennifer Williams, Christopher Summerfield
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。