大規模親社會說服:大型語言模型在不同程度個性化下捐款呼籲表現優於人類

arXiv - Computers and SocietyJohn Caffier, Olga Stavrova, Bennett Kleinberg

研究發現 LLM 生成的捐款呼籲在捐款金額、參與度與說服力上均優於人類撰寫內容。

AI 幫你先抓重點

AI 重點 1

LLM 在親社會行為(Prosocial Behavior)引導上的潛力

滑鼠懸停看 AI 判斷理由
過去研究多聚焦於 AI 生成錯誤訊息的風險,但本研究證明了 AI 可被用於正向社會影響,這為利用 AI 驅動社會公益與行為改變提供了新的技術路徑。
AI 重點 2

個性化內容的精準度與真實性至關重要

滑鼠懸停看 AI 判斷理由
雖然個性化能提升效果,但「虛假個性化」會產生負面懲罰。這提醒開發者在利用 AI 進行大規模溝通時,必須在自動化與資訊真實性之間取得平衡。

核心研究發現

  1. 1

    在兩項實驗中,LLM 生成的內容均比人類撰寫的內容獲得更多捐款、更高的參與度,且被評為更具說服力。

  2. 2

    研究顯示個性化程度會影響效果,在 Study 2 中,增加個性化內容能帶來額外的捐款增益。

  3. 3

    研究也發現了「虛假個性化」的風險,在 Study 1 中,錯誤的個性化資訊會導致說服效果下降。

對教育工作者的啟發

對於教育科技開發者或推廣教育內容的實務工作者,本研究提供了兩大啟發:首先,可以利用 LLM 規模化地生成具有高度說服力的教育或公益訊息,以提升學習者或社會大眾的參與度;其次,在設計 AI 驅動的個性化學習或溝通系統時,必須極度重視「資訊真實性」。若 AI 為了追求個性化效果而生成與使用者背景不符的錯誤資訊(虛假個性化),將會嚴重損害信任感並降低行為改變的效果。因此,建立精準且真實的用戶數據模型,比單純追求個性化風格更為關鍵。

原始文獻資訊

英文標題:
Prosocial Persuasion at Scale? Large Language Models Outperform Humans in Donation Appeals Across Levels of Personalization
作者:
John Caffier, Olga Stavrova, Bennett Kleinberg
來源:
arXiv - Computers and Society
AI 摘要模型:
/models/gemma-4-26B-A4B-it
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。