生成式 AI 錯誤率與任務難度對使用者依賴程度之影響

arXiv - Computers and SocietyJacy Reese Anthis, Hannah Cha, Solon Barocas, Alexandra Chouldechova, Jake Hofman

研究發現 AI 錯誤率會降低使用者依賴度,但使用者對於 AI 在簡單任務出錯的容忍度與困難任務並無顯著差異。

AI 幫你先抓重點

AI 重點 1

使用者對 AI 「能力不穩定性」的認知模式可能與直覺不同

滑鼠懸停看 AI 判斷理由
傳統觀點認為人們會對 AI 在簡單任務上的失誤感到更失望,但本研究顯示使用者對這種「能力鋸齒狀」的現象具有一定的容忍度,這挑戰了我們對人機信任建立過程的既有認知。
AI 重點 2

設計 AI 介面時,錯誤模式的可學習性是關鍵方向

滑鼠懸停看 AI 判斷理由
既然使用者不一定會因為 AI 在簡單任務出錯而大幅放棄使用,未來的研究與設計應著重於如何讓使用者能「預測」或「學習」AI 的錯誤模式,而非僅僅追求降低錯誤率。

核心研究發現

  1. 1

    實驗證實,觀察到生成式 AI 的錯誤率越高(10%、30% 或 50%),使用者對 AI 產出結果的使用程度就會隨之降低。

  2. 2

    研究意外發現,當 AI 在簡單任務中出錯時,其對使用者依賴度的降低程度,並不顯著高於 AI 在困難任務中出錯的情況。

  3. 3

    研究結果顯示,在本次實驗設定下,使用者對於 AI 能力呈現「鋸齒狀邊界」(即簡單任務出錯、困難任務成功)的現象並不排斥。

對教育工作者的啟發

對於開發 AI 教育工具的設計者而言,不應僅追求技術上的完美,而應關注「透明度」與「錯誤預期」。既然使用者對 AI 的能力波動有一定容忍度,設計者可以透過介面提示,讓學習者了解 AI 在特定任務類型下的可靠程度。這有助於培養學習者的批判性思考與元認知能力,讓他們學會何時該信任 AI,何時該進行人工校對,而非盲目依賴或因單次錯誤而完全放棄工具。

原始文獻資訊

英文標題:
Effects of Generative AI Errors on User Reliance Across Task Difficulty
作者:
Jacy Reese Anthis, Hannah Cha, Solon Barocas, Alexandra Chouldechova, Jake Hofman
來源:
arXiv - Computers and Society
AI 摘要模型:
/models/gemma-4-26B-A4B-it
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。