AI 模型與 AI 系統的定義:解決邊界問題的框架

arXiv - Computers and SocietyYuanyuan Sun, Timothy Parker, Lara Gierschmann, Sana Shams, Teo Canmetin, Mathieu Duteil, Rokas Gipi\v{s}kis, Ze Shen Chin

本文透過系統性文獻與文件回顧,提出明確的 AI 模型與 AI 系統定義,並探討其對法規責任分配的影響。

AI 幫你先抓重點

AI 重點 1

AI 模型與 AI 系統的明確區分是合規的關鍵。

滑鼠懸停看 AI 判斷理由
因為不同角色(供應商、部署者)在法規中被賦予不同責任,若無清晰界定,無法準確判斷誰負責何項義務,進而影響合規與風險管理。
AI 重點 2

對神經網路 AI 的操作性定義有助於實務落實。

滑鼠懸停看 AI 判斷理由
該定義將模型拆解為訓練參數與架構,系統拆解為模型加介面,讓開發者與使用者能具體辨識各組件,進而制定符合規範的測試與監管流程。
AI 重點 3

OECD 框架的演變揭示了法規制定中的概念累積問題。

滑鼠懸停看 AI 判斷理由
了解這一歷史脈絡能幫助政策制定者避免重複錯誤,設計更具體、可操作的規範。

核心研究發現

  1. 1

    目前 AI 模型與 AI 系統的定義缺乏一致性,導致法規責任分配模糊。

  2. 2

    大多數現行標準與法規定義源自 OECD 框架,且在演變過程中加劇了概念模糊。

  3. 3

    作者提出概念性定義:模型為訓練參數與架構,系統為模型加上輸入輸出介面等附加元件。

  4. 4

    針對以神經網路為主的機器學習 AI,作者提供了可操作的模型與系統定義。

  5. 5

    明確的邊界定義可協助各利益相關者確定合規義務,並促進 AI 法規的落實。

對教育工作者的啟發

對教育工作者而言,明確 AI 模型與系統的界定能協助選擇合規的 AI 工具,避免因未經授權的模型改動而違法。課程設計者可將此框架納入 AI 相關課程,教導學生辨識模型與系統組件,並討論其責任分配。學校 IT 團隊可依此定義設計安全測試流程,確保部署的 AI 系統符合最新法規。

原始文獻資訊

英文標題:
Defining AI Models and AI Systems: A Framework to Resolve the Boundary Problem
作者:
Yuanyuan Sun, Timothy Parker, Lara Gierschmann, Sana Shams, Teo Canmetin, Mathieu Duteil, Rokas Gipi\v{s}kis, Ze Shen Chin
來源:
arXiv - Computers and Society
AI 摘要模型:
openai/gpt-oss-20b
閱讀原文

每週精選研究電子報

每週五信箱收到精選 5 篇教育科技重點研究摘要,零時間壓力掌握學術前沿。