人類能分辨嗎?關於人類對 LLM 生成新聞感知能力的雙軸研究

arXiv - Computers and SocietyAlexander Loth, Martin Kappes, Marc-Oliver Pahl

研究發現人類無法可靠地分辨 AI 與人類撰寫的新聞,且判斷準確度會隨認知疲勞而下降。

AI 幫你先抓重點

AI 重點 1

單靠提升使用者的辨識能力並非防禦 AI 假新聞的有效手段。

滑鼠懸停看 AI 判斷理由
這項發現挑戰了「提升數位素養即可解決問題」的傳統思維。既然人類感官已無法區分真偽,教育與政策應轉向推動系統層級的技術防禦,如加密內容來源驗證。
AI 重點 2

認知負荷與疲勞會直接削弱人類對 AI 內容的判斷力。

滑鼠懸停看 AI 判斷理由
這提醒了在設計數位學習或資訊檢核任務時,必須考慮評估的時長與頻率,過長的連續檢索任務會導致判斷失準,進而影響學習者對資訊真實性的認知。

核心研究發現

  1. 1

    參與者無法可靠地分辨機器生成與人類撰寫的文本,此現象在所有測試的模型(包含僅 7B 參數的開源模型)中皆成立。

  2. 2

    自我報告的領域專業知識能有效預測判斷準確度,但政治傾向對判斷結果並無顯著影響。

  3. 3

    研究發現參與者存在「懷疑論者」與「相信者」兩種不同的反應策略,且連續進行約 30 次評估後,準確度會因認知疲勞而下降。

對教育工作者的啟發

對於教育工作者而言,這項研究顯示傳統的「辨別真偽」訓練可能面臨技術瓶頸。在設計數位素養課程時,不應僅著重於教導學生觀察文字特徵,而應引導學生理解 AI 生成的技術本質,並學習使用技術工具(如來源驗證工具)來輔助判斷。此外,在進行需要高度批判性思考的數位學習任務時,應避免過長的連續評估,以防止認知疲勞導致學生做出錯誤的資訊判斷。

原始文獻資訊

英文標題:
Can Humans Tell? A Dual-Axis Study of Human Perception of LLM-Generated News
作者:
Alexander Loth, Martin Kappes, Marc-Oliver Pahl
來源:
arXiv - Computers and Society
AI 摘要模型:
/models/gemma-4-26B-A4B-it
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。