學術同儕審查中生成式 AI 的治理:一個社會技術挑戰

arXiv - Computers and SocietyTatiana Chakravorti, Pranav Narayanan Venkit, Sourojit Ghosh, Sarah Rajtmajer

本研究探討生成式 AI 在學術同儕審查流程中引發的公平性、責任與評估正當性問題,並提出相應的治理建議。

AI 幫你先抓重點

AI 重點 1

生成式 AI 在同儕審查中的角色應限於輔助性任務。

滑鼠懸停看 AI 判斷理由
AI 認為此點至關重要,因為它直接關乎學術評估的可靠性與公正性,強調人類判斷在評估學術新穎性與貢獻方面的重要性,避免過度依賴 AI 可能導致的偏見。
AI 重點 2

制度政策不明確會加劇審查者的負擔。

滑鼠懸停看 AI 判斷理由
AI 認為此點值得優先關注,因為它揭示了現行制度在應對生成式 AI 帶來的挑戰時的不足,並提醒學術機構需要制定明確的政策,以減輕審查者的壓力,確保審查流程的公平性。

核心研究發現

  1. 1

    研究發現學界普遍認為生成式 AI 可用於輔助性任務,例如提升清晰度或結構化回饋,但核心評估判斷仍應由人類負責。

  2. 2

    參與者強調生成式 AI 可能造成的認知傷害、過度標準化、責任不明確以及提示注入等潛在風險。

  3. 3

    結構性壓力與制度政策不明確,導致學者們承擔了詮釋與執法的負擔,並不成比例地影響了年輕作者與審查者。

  4. 4

    研究透過整合公開治理討論與實際審查實踐,將 AI 介導的同儕審查重新定義為一個社會技術治理挑戰。

  5. 5

    研究者建議透過建立明確的規範與流程,以確保同儕審查的責任、信任與有意義性,並避免潛在的偏見與風險。

對教育工作者的啟發

教育機構應制定明確的政策,規範生成式 AI 在學術同儕審查中的使用,並提供相關培訓,提升審查者對 AI 工具的理解與應用能力。同時,應加強對年輕作者與審查者的支持,減輕其因 AI 帶來的額外負擔。此外,應持續監控 AI 在學術評估中的影響,並根據實際情況調整政策與流程,以確保學術生態的健康發展。

原始文獻資訊

英文標題:
Beyond Detection: Governing GenAI in Academic Peer Review as a Sociotechnical Challenge
作者:
Tatiana Chakravorti, Pranav Narayanan Venkit, Sourojit Ghosh, Sarah Rajtmajer
來源:
arXiv - Computers and Society
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。