工作者自主權建議:群眾外包負責任AI內容工作的風險揭露協同設計
arXiv - Computers and SocietyAlice Qian, Ziqi Yang, Ryland Shaw, Jina Suh, Laura Dabbish, Hong Shen
本研究透過協同設計,探討群眾外包負責任AI內容工作中的風險揭露機制,旨在平衡工作者保護、任務設計者需求與平台責任。
AI 幫你先抓重點
AI 重點 1
協同設計揭示了風險揭露中的多重張力。
滑鼠懸停看 AI 判斷理由
AI 認為這點至關重要,因為它突顯了在設計有效風險揭露機制時,需要同時考慮不同利益相關者的需求,避免單一方案可能造成的負面影響,這對於未來系統的設計具有指導意義。
AI 重點 2
平台角色在風險揭露中具有關鍵影響。
滑鼠懸停看 AI 判斷理由
AI 認為理解平台在風險揭露中的角色至關重要,因為平台可以主動塑造風險揭露的實踐,並提供工具和支持,以確保群眾外包工作者的福祉,這對於建立負責任的AI生態系統至關重要。
核心研究發現
- 1
群眾外包工作者在執行負責任AI內容工作時,常暴露於潛在的有害內容,因此風險揭露至關重要。
- 2
任務設計者對於支持風險揭露的需求與工作者接收警告的偏好之間存在差異,需要更周全的設計。
- 3
平台在塑造風險揭露實踐中扮演關鍵角色,但其具體如何介入仍有待探索。
- 4
在設計風險揭露機制時,存在著保護工作者、滿足任務需求和平台運作等多重張力,需要權衡利弊。
- 5
研究提出了具體的設計建議和功能概念,以改善負責任AI內容工作中的風險揭露機制,提升工作者的福祉。
對教育工作者的啟發
此研究提醒教育科技設計者在導入AI系統時,應重視群眾外包工作者的福祉,並積極設計風險揭露機制。在課程設計中,可引導學生思考AI系統背後的工作者,以及如何建立更公平、更透明的AI生態系統。平台應提供易於理解且有效的風險揭露工具,並建立明確的申訴管道,以保障工作者的權益。此外,研究也強調了協同設計的重要性,鼓勵平台、設計者和工作者共同參與,以打造更符合需求的解決方案。
原始文獻資訊
- 英文標題:
- Worker Discretion Advised: Co-designing Risk Disclosure in Crowdsourced Responsible AI (RAI) Content Work
- 作者:
- Alice Qian, Ziqi Yang, Ryland Shaw, Jina Suh, Laura Dabbish, Hong Shen
- 來源:
- arXiv - Computers and Society
- AI 摘要模型:
- ISTA-DASLab/gemma-3-27b-it-GPTQ-4b-128g
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。