測量 AI 系統公平感知:基礎邊緣化效應

arXiv - Computers and SocietySchrasing Tong, Minseok Jung, Ilaria Liccardi, Lalana Kagal

研究顯示人們對 AI 公平的評價受資料分佈差異影響,並非僅以統計平衡衡量。

AI 幫你先抓重點

AI 重點 1

人們對 AI 公平性的感知並非單純以結果論判斷,而是會考量模型表現與資料分佈之間的關聯性。

滑鼠懸停看 AI 判斷理由
這顛覆了傳統以統計均等為核心的公平性定義,提醒 AI 系統設計者不能只追求結果平等,更要深入理解使用者對因果關係的認知。若忽略資料不平衡的背景,即使達到結果平等,也可能被使用者視為不公平,影響系統的信任度與接受度。
AI 重點 2

當群體表現差異與資料不平衡一致時,參與者反而認為保留差異的模型更公平,這與直覺相悖。

滑鼠懸停看 AI 判斷理由
此發現挑戰了普遍認為「差異即不公平」的假設,暗示在某些情境下,反映真實世界資料分佈的 AI 模型反而能獲得更高的公平性認可。這對於教育科技的應用尤其重要,因為學習資料本身就可能存在偏差,模型應如何呈現差異才能兼顧公平與真實性,是設計者必須思考的問題。

核心研究發現

  1. 1

    參與者不將公平等同於統計平衡,偏好結果相等的模型。

  2. 2

    當群體特定表現相等或缺乏時,參與者更青睞產生相同結果的模型。

  3. 3

    若群體表現差異存在,尤其與資料不平衡一致,參與者認為保留差異的模型更公平。

  4. 4

    公平判斷同時受結果與對差異成因的信念影響,顯示人類對因果關係的重視。

  5. 5

    研究指出,傳統群體公平定義忽略分佈脈絡,需考慮資料分佈以符合實務期望。

對教育工作者的啟發

本研究提醒教育科技開發者在設計 AI 評估工具時,應考量使用者對資料分佈的直覺與因果推論。若模型表現因資料不平衡而差異,保留差異可提升公平感;若表現相等,則應優先調整輸出以達成結果平衡。此舉能使學習者在使用 AI 辅助決策時,感受到更符合其公平期待的系統,進而提升信任與接受度。

原始文獻資訊

英文標題:
Measuring Perceptions of Fairness in AI Systems: The Effects of Infra-marginality
作者:
Schrasing Tong, Minseok Jung, Ilaria Liccardi, Lalana Kagal
來源:
arXiv - Computers and Society
AI 摘要模型:
ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。