大規模親社會說服:大型語言模型在不同程度個性化下捐款呼籲表現優於人類
arXiv - Computers and SocietyJohn Caffier, Olga Stavrova, Bennett Kleinberg
研究發現 LLM 生成的捐款呼籲在捐款金額、參與度與說服力上均優於人類撰寫內容。
AI 幫你先抓重點
AI 重點 1
LLM 在親社會行為(Prosocial Behavior)引導上的潛力
滑鼠懸停看 AI 判斷理由
過去研究多聚焦於 AI 生成錯誤訊息的風險,但本研究證明了 AI 可被用於正向社會影響,這為利用 AI 驅動社會公益與行為改變提供了新的技術路徑。
AI 重點 2
個性化內容的精準度與真實性至關重要
滑鼠懸停看 AI 判斷理由
雖然個性化能提升效果,但「虛假個性化」會產生負面懲罰。這提醒開發者在利用 AI 進行大規模溝通時,必須在自動化與資訊真實性之間取得平衡。
核心研究發現
- 1
在兩項實驗中,LLM 生成的內容均比人類撰寫的內容獲得更多捐款、更高的參與度,且被評為更具說服力。
- 2
研究顯示個性化程度會影響效果,在 Study 2 中,增加個性化內容能帶來額外的捐款增益。
- 3
研究也發現了「虛假個性化」的風險,在 Study 1 中,錯誤的個性化資訊會導致說服效果下降。
對教育工作者的啟發
對於教育科技開發者或推廣教育內容的實務工作者,本研究提供了兩大啟發:首先,可以利用 LLM 規模化地生成具有高度說服力的教育或公益訊息,以提升學習者或社會大眾的參與度;其次,在設計 AI 驅動的個性化學習或溝通系統時,必須極度重視「資訊真實性」。若 AI 為了追求個性化效果而生成與使用者背景不符的錯誤資訊(虛假個性化),將會嚴重損害信任感並降低行為改變的效果。因此,建立精準且真實的用戶數據模型,比單純追求個性化風格更為關鍵。
原始文獻資訊
- 英文標題:
- Prosocial Persuasion at Scale? Large Language Models Outperform Humans in Donation Appeals Across Levels of Personalization
- 作者:
- John Caffier, Olga Stavrova, Bennett Kleinberg
- 來源:
- arXiv - Computers and Society
- AI 摘要模型:
- /models/gemma-4-26B-A4B-it
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。