刑事司法中的負責任 AI:警務中的大型語言模型與案件進程風險

arXiv - Computers and SocietyMuffy Calder, Marion Oswald, Elizabeth McClory-Tiarks, Michele Sevegnani, Evdoxia Taka

本文提出一套以英格蘭與威爾士警務與法律體系為基礎的風險識別方法,列出 15 個可由 LLM 執行的警務任務與 17 種風險,並以 40+ 案例說明其對案件進程的影響,指出可透過良好實踐降低風險。

AI 幫你先抓重點

AI 重點 1

17 種具體風險的系統化分類

滑鼠懸停看 AI 判斷理由
此分類提供了實務工作者在設計或部署 LLM 時可直接參考的風險清單,幫助快速評估潛在問題並制定對應措施,對於確保司法公正與透明度至關重要。
AI 重點 2

40+ 案例說明 LLM 對案件進程的實際影響

滑鼠懸停看 AI 判斷理由
透過實際案例展示風險與效益的具體表現,使讀者能直觀理解 LLM 在不同警務情境下的具體作用,為後續研究與實務應用提供可操作的參考。

核心研究發現

  1. 1

    列舉 15 個警務任務可由大型語言模型執行,涵蓋資訊整理、預測分析與決策輔助。

  2. 2

    辨識 17 種使用 LLM 可能帶來的風險,包括偏見、隱私洩漏、決策透明度不足等。

  3. 3

    透過 40+ 具體案例說明 LLM 介入對案件進程的實際影響,揭示風險與效益的交互關係。

  4. 4

    指出若採用良好實踐,許多風險可被顯著降低,但需投入時間與資源進行風險管理。

  5. 5

    強調需及時處理風險並定義系統層面的影響與效益,以確保 AI 在刑事司法中的負責任應用。

對教育工作者的啟發

1. 在部署 LLM 前先完成 17 種風險的清單化與評估,確定高風險領域。2. 建立跨部門風險管理小組,負責監測 LLM 介入後的案件進程變化。3. 制定明確的透明度與問責機制,確保 AI 輔助決策可被審核。4. 針對高風險任務設計人機協同流程,將人工判斷納入關鍵節點。5. 定期回顧與更新風險清單,並將學到的教訓納入系統設計與培訓。這些措施可在確保司法公正的同時,最大化 LLM 的效益。

原始文獻資訊

英文標題:
Responsible AI in criminal justice: LLMs in policing and risks to case progression
作者:
Muffy Calder, Marion Oswald, Elizabeth McClory-Tiarks, Michele Sevegnani, Evdoxia Taka
來源:
arXiv - Computers and Society
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。