對著虛無說話:對話式 AI 的本體論失調與雙重束縛

arXiv - Computers and SocietyHugh Brosnahan, Izabela Lipinska

本文提出對話式 AI 可能透過引發「本體論失調」與「雙重束縛」,導致易感使用者產生類精神分裂的幻覺經驗。

AI 幫你先抓重點

AI 重點 1

重新定義 AI 安全風險的維度

滑鼠懸停看 AI 判斷理由
過去的討論多集中在內容過濾或技術漏洞,但本文提醒我們,AI 互動的「存在本質」本身就是一種風險來源,這要求設計者必須從心理與哲學層面重新審視人機互動的安全性。
AI 重點 2

警惕擬人化設計帶來的心理陷阱

滑鼠懸停看 AI 判斷理由
當 AI 模擬出極高的情感回應能力時,會造成使用者在認知與現實感之間的斷裂,這對於開發高度擬人化學習助手的教育科技開發者來說,是極其重要的倫理警示。

核心研究發現

  1. 1

    對話式 AI 的風險不僅源於個人脆弱性或安全工程失敗,更源於互動本身的關係與本體論結構。

  2. 2

    AI 互動會產生「本體論失調」,即系統展現出擬人化的關係存在感,卻缺乏能支撐這種關係的真實主體。

  3. 3

    這種失調透過溝通中的「雙重束縛」與注意力不對稱被放大,在情感脆弱者身上可能演變成技術媒介下的「雙人狂躁症」現象。

  4. 4

    研究發現,現有的顯性免責聲明往往無法有效阻斷使用者陷入幻覺或妄想的過程。

對教育工作者的啟發

在設計具備高度互動性的 AI 學習夥伴時,教育科技開發者應避免過度擬人化的情感陷阱。建議在設計中加入「認知斷點」,例如透過介面設計明確區分 AI 的工具屬性與人類屬性,而非僅依賴文字免責聲明。此外,對於使用 AI 進行情感支持或高度社交互動的學習場景,應建立心理健康監測機制,並在設計上刻意降低「擬人化存在感」的強度,以防止使用者產生本體論失調,確保技術輔助學習的過程是建立在健康的現實感之上。

原始文獻資訊

英文標題:
Speaking to No One: Ontological Dissonance and the Double Bind of Conversational AI
作者:
Hugh Brosnahan, Izabela Lipinska
來源:
arXiv - Computers and Society
AI 摘要模型:
/models/gemma-4-26B-A4B-it
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。