以價值驅動的大型語言模型代理之 Context-Value-Action 架構
arXiv - Human-Computer InteractionTianZe Zhang, Sirui Sun, Yuhang Xie, Xin Zhang, Zhiqiang Wu, Guojie Song
提出 CVA 架構,透過價值驗證器分離推理與行動,顯著降低價值極化、提升行為真實度與可解釋性。
AI 幫你先抓重點
AI 重點 1
CVA 透過價值驗證器明確建模人類價值,突破傳統自我驗證偏差。
滑鼠懸停看 AI 判斷理由
傳統 LLM 評估往往依賴自我參照,易忽視行為多樣性;CVA 的價值驗證器以真實人類數據為基礎,能捕捉動態價值變化,從而在保持高真實度的同時減少極化,對設計更公平、可解釋的代理至關重要。
AI 重點 2
將推理與行動分離可降低提示強度對行為的負面影響,提升代理在多樣情境下的適應性。
滑鼠懸停看 AI 判斷理由
提示強度過高會導致行為僵化與極化;CVA 的分離機制允許推理獨立於行動決策,讓代理在面對不同情境時能更靈活地調整行為,對於需要多元互動的教育場景尤為重要。
核心研究發現
- 1
提示驅動推理強度提升並未提升行為真實度,反而加劇價值極化並削弱群體多樣性。
- 2
CVA 架構將行動生成與認知推理分離,並使用訓練於真實人類數據的價值驗證器來動態模擬價值激活。
- 3
在包含 1.1 百萬實際互動痕跡的 CVABench 上,CVA 明顯優於基線模型,降低極化、提升行為真實度與可解釋性。
對教育工作者的啟發
對於設計以 LLM 為核心的教學助手,建議先建立價值驗證模組,使用真實學習者互動資料訓練,確保代理行為符合學習者價值與需求。將推理與行動分離,可降低提示強度帶來的極化風險,提升系統在不同學習情境下的適應性與可解釋性。實務上可透過 CVABench 或類似大規模互動資料集進行基線對照,並以多樣性與極化指標作為評估指標,確保代理在提供個別化建議時不失去多元視角。
原始文獻資訊
- 英文標題:
- Context-Value-Action Architecture for Value-Driven Large Language Model Agents
- 作者:
- TianZe Zhang, Sirui Sun, Yuhang Xie, Xin Zhang, Zhiqiang Wu, Guojie Song
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- openai/gpt-oss-20b
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。