以價值驅動的大型語言模型代理之 Context-Value-Action 架構

arXiv - Human-Computer InteractionTianZe Zhang, Sirui Sun, Yuhang Xie, Xin Zhang, Zhiqiang Wu, Guojie Song

提出 CVA 架構,透過價值驗證器分離推理與行動,顯著降低價值極化、提升行為真實度與可解釋性。

AI 幫你先抓重點

AI 重點 1

CVA 透過價值驗證器明確建模人類價值,突破傳統自我驗證偏差。

滑鼠懸停看 AI 判斷理由
傳統 LLM 評估往往依賴自我參照,易忽視行為多樣性;CVA 的價值驗證器以真實人類數據為基礎,能捕捉動態價值變化,從而在保持高真實度的同時減少極化,對設計更公平、可解釋的代理至關重要。
AI 重點 2

將推理與行動分離可降低提示強度對行為的負面影響,提升代理在多樣情境下的適應性。

滑鼠懸停看 AI 判斷理由
提示強度過高會導致行為僵化與極化;CVA 的分離機制允許推理獨立於行動決策,讓代理在面對不同情境時能更靈活地調整行為,對於需要多元互動的教育場景尤為重要。

核心研究發現

  1. 1

    提示驅動推理強度提升並未提升行為真實度,反而加劇價值極化並削弱群體多樣性。

  2. 2

    CVA 架構將行動生成與認知推理分離,並使用訓練於真實人類數據的價值驗證器來動態模擬價值激活。

  3. 3

    在包含 1.1 百萬實際互動痕跡的 CVABench 上,CVA 明顯優於基線模型,降低極化、提升行為真實度與可解釋性。

對教育工作者的啟發

對於設計以 LLM 為核心的教學助手,建議先建立價值驗證模組,使用真實學習者互動資料訓練,確保代理行為符合學習者價值與需求。將推理與行動分離,可降低提示強度帶來的極化風險,提升系統在不同學習情境下的適應性與可解釋性。實務上可透過 CVABench 或類似大規模互動資料集進行基線對照,並以多樣性與極化指標作為評估指標,確保代理在提供個別化建議時不失去多元視角。

原始文獻資訊

英文標題:
Context-Value-Action Architecture for Value-Driven Large Language Model Agents
作者:
TianZe Zhang, Sirui Sun, Yuhang Xie, Xin Zhang, Zhiqiang Wu, Guojie Song
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。