生成式 AI 錯誤率與任務難度對使用者依賴程度之影響
arXiv - Computers and SocietyJacy Reese Anthis, Hannah Cha, Solon Barocas, Alexandra Chouldechova, Jake Hofman
研究發現 AI 錯誤率會降低使用者依賴度,但使用者對於 AI 在簡單任務出錯的容忍度與困難任務並無顯著差異。
AI 幫你先抓重點
AI 重點 1
使用者對 AI 「能力不穩定性」的認知模式可能與直覺不同
滑鼠懸停看 AI 判斷理由
傳統觀點認為人們會對 AI 在簡單任務上的失誤感到更失望,但本研究顯示使用者對這種「能力鋸齒狀」的現象具有一定的容忍度,這挑戰了我們對人機信任建立過程的既有認知。
AI 重點 2
設計 AI 介面時,錯誤模式的可學習性是關鍵方向
滑鼠懸停看 AI 判斷理由
既然使用者不一定會因為 AI 在簡單任務出錯而大幅放棄使用,未來的研究與設計應著重於如何讓使用者能「預測」或「學習」AI 的錯誤模式,而非僅僅追求降低錯誤率。
核心研究發現
- 1
實驗證實,觀察到生成式 AI 的錯誤率越高(10%、30% 或 50%),使用者對 AI 產出結果的使用程度就會隨之降低。
- 2
研究意外發現,當 AI 在簡單任務中出錯時,其對使用者依賴度的降低程度,並不顯著高於 AI 在困難任務中出錯的情況。
- 3
研究結果顯示,在本次實驗設定下,使用者對於 AI 能力呈現「鋸齒狀邊界」(即簡單任務出錯、困難任務成功)的現象並不排斥。
對教育工作者的啟發
對於開發 AI 教育工具的設計者而言,不應僅追求技術上的完美,而應關注「透明度」與「錯誤預期」。既然使用者對 AI 的能力波動有一定容忍度,設計者可以透過介面提示,讓學習者了解 AI 在特定任務類型下的可靠程度。這有助於培養學習者的批判性思考與元認知能力,讓他們學會何時該信任 AI,何時該進行人工校對,而非盲目依賴或因單次錯誤而完全放棄工具。
原始文獻資訊
- 英文標題:
- Effects of Generative AI Errors on User Reliance Across Task Difficulty
- 作者:
- Jacy Reese Anthis, Hannah Cha, Solon Barocas, Alexandra Chouldechova, Jake Hofman
- 來源:
- arXiv - Computers and Society
- AI 摘要模型:
- /models/gemma-4-26B-A4B-it
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。