LLM如何解讀圖表?人類與LLM在高階視覺化理解的比較研究

arXiv - Human-Computer InteractionHyotaek Jeon, Hyunwook Lee, Minjeong Shin, Tapendra Pandey, Joohee Kim, Shinwook Seon, Daeun Jeong, Sungahn Ko, Ghulam Jilani Quadri

研究發現LLM在解讀圖表時偏好結構化列舉,而人類則傾向於趨勢敘事,顯示兩者理解機制不同。

AI 幫你先抓重點

AI 重點 1

LLM偏好結構化列舉,設計者須考慮機器可讀性。

滑鼠懸停看 AI 判斷理由
此洞察指出,若視覺化僅以人類直覺為導向,LLM可能無法正確提取資訊;因此在教育科技中加入可被LLM直接解析的結構化提示,可提升自動化解讀與互動。
AI 重點 2

人類趨勢敘事與LLM列舉差異揭示人機協同解讀潛力。

滑鼠懸停看 AI 判斷理由
了解兩者差異可促進設計出同時適合人類與LLM的圖表,進而實現更完整的知識建構與評量。

核心研究發現

  1. 1

    LLM在三種圖表中,無論提示如何,始終採用結構化列舉比較與數值範圍的方式解讀。

  2. 2

    人類觀察者則傾向於將資料綜合成趨勢導向的敘事,強調變化方向與關聯。

  3. 3

    LLM的理解機制與人類直覺迥異,顯示設計者需針對機器可讀性與人類可解釋性並重。

對教育工作者的啟發

為提升圖表在教育科技中的效能,設計者應先測試LLM對圖表的解讀方式,調整圖表結構以符合LLM的結構化列舉偏好;同時加入趨勢敘事元素,讓人類觀察者能快速把握關鍵訊息。建議在課程設計中使用可被LLM解析的圖表,並配合人類導師的敘事說明,實現人機協同的知識建構與評量。此策略可減少學生在解讀圖表時的認知負擔,並促進自動化評量與即時回饋。

原始文獻資訊

英文標題:
How Do LLMs See Charts? A Comparative Study on High-Level Visualization Comprehension in Humans and LLMs
作者:
Hyotaek Jeon, Hyunwook Lee, Minjeong Shin, Tapendra Pandey, Joohee Kim, Shinwook Seon, Daeun Jeong, Sungahn Ko, Ghulam Jilani Quadri
來源:
arXiv - Human-Computer Interaction
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。