以社群為導向的 AI 模型,提升警察問責性

arXiv - Computers and SocietyBenjamin A. T. Grahama, Lauren Brown, Georgios Chochlakis, Morteza Dehghani, Raquel Delerme, Brittany Friedman, Ellie Graeden, Preni Golazizian, Rajat Hebbar, Parsa Hejabi, Aditya Kommineni, Mayag\"uez Salinas, Michael Sierra-Ar\'evalo, Jackson Trager, Nicholas Weller, Shrikanth Narayanan

本文提出一種以社群為中心的 AI 模型開發方法,旨在提升政府透明度與問責性,特別是在警察執法領域。

AI 幫你先抓重點

AI 重點 1

強調 AI 模型設計需融入社群觀點。

滑鼠懸停看 AI 判斷理由
此點至關重要,因為 AI 在政府問責領域的應用,若未考慮不同群體的價值觀,可能加劇偏見或不公平現象,影響其可信度與實用性。
AI 重點 2

跨領域團隊合作的重要性。

滑鼠懸停看 AI 判斷理由
AI 工具的開發需要結合技術、社會科學及法律等不同領域的專業知識,才能確保模型既準確又符合倫理規範,並能有效解決實際問題。

核心研究發現

  1. 1

    警民互動影響個人福祉與民主合法性,而執法過程中的影片資料為 AI 分析提供了規模化的機會。

  2. 2

    AI 模型若要有效服務民主治理,必須納入被治理者的偏好與觀點,而非單純技術的應用。

  3. 3

    透過洛杉磯警察部門的交通攔查影片,研究團隊實地發展並驗證了社群導向的 AI 工具。

  4. 4

    社會科學家在跨領域團隊中扮演關鍵角色,負責整合不同利益相關者的觀點,以確保 AI 工具的公平性。

  5. 5

    研究強調,在警察及更廣泛的政府問責領域,AI 工具的開發需要跨學科合作與社群參與。

對教育工作者的啟發

此研究提醒教育工作者,在設計或使用 AI 工具時,應重視多元視角與社群參與。例如,在發展用於分析學生行為的 AI 系統時,應納入教師、學生、家長及教育心理學家的意見,以確保系統的公平性與有效性。此外,跨領域合作能提升 AI 解決方案的品質,並促進更具包容性的教育環境。課程設計者可以思考如何將此概念融入到相關課程中,培養學生批判性思考與倫理意識。

原始文獻資訊

英文標題:
Community-Informed AI Models for Police Accountability
作者:
Benjamin A. T. Grahama, Lauren Brown, Georgios Chochlakis, Morteza Dehghani, Raquel Delerme, Brittany Friedman, Ellie Graeden, Preni Golazizian, Rajat Hebbar, Parsa Hejabi, Aditya Kommineni, Mayag\"uez Salinas, Michael Sierra-Ar\'evalo, Jackson Trager, Nicholas Weller, Shrikanth Narayanan
來源:
arXiv - Computers and Society
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。