MECO:針對老年人情緒與認知理解的多模態資料集
arXiv - Human-Computer InteractionHongbin Chen, Jie Li, Wei Wang, Siyang Song, Xiao Gu, Jianqing Li, Wentao Xiang
本研究建立了一個包含 42 名老年參與者、38 小時多模態資料(視訊、音訊、EEG、ECG)並附情緒與認知標註的 MECO 資料集,為老年人情緒與認知模型提供基礎。
AI 幫你先抓重點
AI 重點 1
同時標註情緒與 MMSE 使得可進行情緒-認知共分析,對早期 MCI 探測至關重要。
滑鼠懸停看 AI 判斷理由
此雙重標註允許研究者探討認知衰退如何影響情緒表達與生理反應,為個性化介入與預防策略提供新視角。
AI 重點 2
社區基礎、實際情境的資料收集模式為未來老年人多模態研究樹立標準。
滑鼠懸停看 AI 判斷理由
證明高品質多模態資料可在非實驗室環境中取得,為實際部署與跨領域合作提供可行的數據收集藍圖。
核心研究發現
- 1
MECO 資料集包含 42 名參與者,約 38 小時多模態訊號,產生 30,592 個同步樣本,涵蓋視訊、音訊、EEG、ECG,並提供自評情緒(價值、激發、六種基本情緒)與 MMSE 認知分數。
- 2
研究建立了情緒與認知預測的基線模型,證明在老年人群中多模態建模的可行性與潛在效能。
- 3
資料採集於社區環境,遵循標準化協議,提升了實際情境下的生態效度,與現有以年輕健康受試者為主的資料集形成對比。
對教育工作者的啟發
教育工作者可利用 MECO 資料集開發針對長者的情緒辨識與認知評估工具,透過多模態訊號設計即時情緒回饋與認知訓練。教師可結合情緒與認知指標,調整教學節奏與內容,提升學習動機與記憶效能。研究人員亦可以此資料為基礎,建立早期 MCI 風險模型,協助醫療與教育雙向合作,實現個人化學習與健康管理。
原始文獻資訊
- 英文標題:
- MECO: A Multimodal Dataset for Emotion and Cognitive Understanding in Older Adults
- 作者:
- Hongbin Chen, Jie Li, Wei Wang, Siyang Song, Xiao Gu, Jianqing Li, Wentao Xiang
- 來源:
- arXiv - Human-Computer Interaction
- AI 摘要模型:
- openai/gpt-oss-20b
每週精選研究電子報
每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。