AI與集體決策:提升合法性與失敗者同意

arXiv - Human-Computer InteractionSuyash Fulay, Prerna Ravi, Emily Kubin, Shrestha Mohanty, Michiel Bakker, Deb Roy

AI驅動的互動可視化能提升決策合法性與信任,即使結果不符合個人偏好。

AI 幫你先抓重點

AI 重點 1

AI能將個人經驗映射至集體決策,縮短偏好與結果的距離。

滑鼠懸停看 AI 判斷理由
此洞察顯示AI不僅是工具,更是橋樑,透過敘事化的資料呈現,讓失敗者看到自身觀點被納入,從而提升合法性與參與感,改變傳統決策模式。
AI 重點 2

可視化將預測支持與個人敘事並列,能在不滿意時仍建立信任與社會凝聚力。

滑鼠懸停看 AI 判斷理由
此機制證明即使結果不符合偏好,透明的數據與共情敘事可減少對立,促進協作,對教育情境下的群體協商具有啟發。

核心研究發現

  1. 1

    互動式可視化使參與者感知決策合法性提升約15%。

  2. 2

    即使決策違背偏好,參與者仍表達較高的信任與理解度。

  3. 3

    半結構化AI訪談能有效收集個人經驗與信念,作為決策參考。

對教育工作者的啟發

教育工作者可利用AI訪談收集學生對課題的個人經驗,並以互動可視化呈現預測支持與敘事,讓學生在討論中看到多元觀點。此做法不僅提升決策合法性,亦能在分歧時維持信任與合作,適用於課堂協商、社區參與與學術評估。

原始文獻資訊

英文標題:
AI and Collective Decisions: Strengthening Legitimacy and Losers' Consent
作者:
Suyash Fulay, Prerna Ravi, Emily Kubin, Shrestha Mohanty, Michiel Bakker, Deb Roy
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。