ANGELA JIAN
LOADING
回到課程總覽
第 42 篇 L11102 法規與治理

歐盟 AI Act 四級風險分類:實務案例與合規指南

Angela Jian
Angela Jian 簡琬庭
iPAS AI 應用規劃師 / AI Product Builder

學習目標

完成本篇後,你將能夠:

  1. 說明歐盟 AI Act 的立法背景與全球意義
  2. 區分四個風險等級,並舉出各等級代表性 AI 應用
  3. 理解高風險 AI 的六大合規義務
  4. 掌握通用目的 AI(GPAI)的特殊規範
  5. 估算違規罰款金額,並描述企業合規的基本步驟

核心內容

一、立法背景:全球第一部全面性 AI 法規

歐盟 AI Act(Artificial Intelligence Act,人工智慧法案)於 2021 年提案,歷經三年談判,於 2024 年正式通過,成為全球第一部針對 AI 系統全面監管的法律。

生活比喻:把 AI Act 想成「AI 的道路交通法」——不是禁止所有人開車,而是根據車輛的危險程度(機車、轎車、聯結車、危險物品車)訂定不同的駕駛規範與檢驗要求。

立法核心精神

  • 風險比例原則(Risk-proportionate approach)為基礎
  • 保護歐盟公民基本權利
  • 同時促進 AI 創新與競爭力

生效時間軸

時間點事項
2024 年 8 月法規正式生效
2025 年 2 月禁止類 AI 應用條款開始適用
2026 年 8 月高風險 AI 完整合規義務生效
2027 年 8 月部分特定系統延伸適用期結束

二、四級風險金字塔

          ┌─────────┐
          │ 禁止使用 │  ← 不可接受風險(Unacceptable Risk)
          └─────────┘
        ┌─────────────┐
        │   嚴格監管   │  ← 高風險(High Risk)
        └─────────────┘
      ┌─────────────────┐
      │  透明度義務即可  │  ← 有限風險(Limited Risk)
      └─────────────────┘
    ┌─────────────────────┐
    │    幾乎無額外義務    │  ← 低風險/無風險(Minimal/No Risk)
    └─────────────────────┘

三、第一級:不可接受風險(Unacceptable Risk)——直接禁止

這些 AI 應用被認為與歐盟基本價值根本衝突,完全禁止在歐盟境內使用

禁止項目與禁止原因

禁止應用英文術語禁止原因
公共場所即時生物辨識監控Real-time biometric surveillance侵犯隱私與匿名移動自由
社會信用評分系統Social credit scoring系統性歧視,違反人性尊嚴
針對弱勢族群的操控性 AIManipulative AI targeting vulnerable groups利用認知弱點剝奪自主決策
潛意識影響行為的 AISubliminal manipulation繞過意識操控,不道德
預測性警務(基於特徵)Predictive policing based on profiling未犯罪先懲罰,違反無罪推定
情緒辨識(教育與職場)Emotion recognition in education/workplace侵入性強,準確率存疑

考試提示:注意「即時」生物辨識的禁止存在有限例外——例如追捕嚴重罪犯(恐攻等)且需事前司法授權。事後生物辨識(錄影後分析)屬於高風險類別,並非全面禁止。


四、第二級:高風險(High Risk)——嚴格合規義務

高風險 AI 系統並非禁止,但必須在上市或部署前完成合規義務

高風險 AI 應用清單

Annex II — 安全組件類(用於受監管產品):

  • 自動駕駛車輛(Autonomous vehicles)
  • 醫療設備的 AI 組件(Medical device AI components)
  • 航空、鐵路、水運的 AI 安全系統

Annex III — 獨立高風險 AI 系統

領域典型 AI 應用
教育入學篩選系統、學習評量 AI
就業AI 履歷篩選、求職者評分、績效監控
信用評分貸款審核 AI、保險風險評估
醫療AI 診斷輔助、外科手術機器人
法律執行犯罪預測、測謊、證據評估 AI
移民簽證審核 AI、難民申請評估
關鍵基礎設施電網、供水系統管理 AI
民主程序選舉資訊系統 AI

六大合規義務

高風險 AI 系統必須滿足以下六項要求:

1. 資料治理(Data Governance)

  • 訓練資料必須具代表性、無歧視
  • 記錄資料來源、處理流程
  • 定期檢查資料品質

2. 技術文件(Technical Documentation)

  • 系統架構、設計邏輯完整記錄
  • 風險評估報告
  • 訓練/測試資料集描述

3. 透明度與使用者資訊(Transparency)

  • 必須告知使用者 AI 系統的能力與限制
  • 提供清晰的使用說明

4. 人為監督(Human Oversight)

  • 必須設計允許人工介入的機制
  • 不可完全排除人類判斷

5. 準確性與穩健性(Accuracy & Robustness)

  • 必須記錄效能指標
  • 抵禦對抗性攻擊(Adversarial attacks)
  • 對錯誤和資料漂移具備回復力

6. 符合性評估(Conformity Assessment)

  • 部署前需完成第三方或自我評估
  • 通過後貼上 CE 標誌
  • 需向歐盟 AI 資料庫登記

生活比喻:高風險 AI 就像汽車出廠——你可以賣車,但必須通過撞擊測試、排放測試,取得型式認證,還要在出廠文件上清楚標示安全規格。


五、第三級:有限風險(Limited Risk)——透明度義務

有限風險 AI 的監管重點在於確保使用者知情

AI 應用要求
聊天機器人(Chatbots)必須主動告知使用者正在與 AI 互動
Deepfake 影音內容必須清楚標示為 AI 生成
情緒辨識系統(非職場/教育)必須告知被辨識對象
AI 生成文字(影響公眾輿論)需標示為 AI 生成

考試提示:「情緒辨識」在不同情境下屬於不同風險等級!用於職場或教育的情緒辨識屬於禁止類;用於其他情境屬於有限風險


六、第四級:低風險/無風險(Minimal/No Risk)——幾乎無義務

絕大多數現行 AI 應用都落在此類:

  • 垃圾郵件過濾器(Spam filters)
  • 遊戲 AI(Game AI)
  • 推薦演算法(Recommendation engines,如 Netflix 推薦)
  • 翻譯軟體
  • AI 圖片濾鏡

歐盟鼓勵業者自願遵循行為準則(Codes of conduct),但無強制義務。


七、通用目的 AI 模型(GPAI)的特別規範

AI Act 另設專章規範大型基礎模型,如 GPT-4、Gemini、Claude 等。

GPAI 定義:可執行多種任務、透過大量資料訓練的 AI 模型(General-Purpose AI Model)

所有 GPAI 的基本義務

義務內容
透明度提供技術文件,說明訓練方法與資料
版權合規建立版權政策,遵守版權保留聲明(opt-out)
使用摘要公開訓練資料摘要

具「系統性風險」的 GPAI 額外義務

訓練算力超過 10²⁵ FLOPs 的模型被視為具系統性風險(Systemic risk),需額外:

  • 進行對抗性測試(紅隊演練,Red teaming)
  • 向歐盟委員會通報重大事故
  • 確保網路安全防護
  • 評估並降低系統性風險

八、罰款與執法

罰款上限

違規類型罰款上限
使用禁止類 AI 應用€35,000,000 或全球年營業額 7%(取較高者)
違反高風險合規義務€15,000,000 或全球年營業額 3%
提供不實資訊給主管機關€7,500,000 或全球年營業額 1%
中小企業/新創(特別規定)適用較低上限

考試提示:禁止類 AI 的罰款是 7% 或 €35M;高風險合規違規是 3% 或 €15M;提供不實資訊是 1% 或 €7.5M。數字要記清楚!


九、企業合規步驟

Step 1:AI 系統盤點 列出公司所有 AI 系統,判斷各系統屬於哪個風險等級。

Step 2:差距分析(Gap Analysis) 對照各等級要求,找出現有系統的合規缺口。

Step 3:高風險系統優先處理 完成資料治理文件、建立人為監督機制、啟動符合性評估。

Step 4:建立 AI 登記清冊 向歐盟 AI 資料庫(EU AI Database)登記高風險 AI 系統。

Step 5:持續監控與更新 AI 系統重大更新後需重新評估風險等級與合規狀態。


十、與美國、台灣的監管方式比較

面向歐盟 AI Act美國台灣
監管方式強制性立法(Mandatory law)自願性框架為主(NIST AI RMF)政策指引為主,立法研議中
覆蓋範圍全面(跨產業)分散(各產業個別規範)有限(特定領域)
風險分類四級金字塔無統一分類參考 OECD 原則
罰款機制有(最高 7%)無統一罰款
域外效力有(影響全球企業)有限
立法時間2024 年通過無全面立法研議中

考試提示:歐盟 AI Act 的「域外效力」(Extraterritorial effect)非常重要——只要 AI 系統在歐盟境內使用或輸出,無論企業總部在哪,都必須遵守。


名詞對照

中文English
人工智慧法案AI Act / Artificial Intelligence Act
不可接受風險Unacceptable Risk
高風險High Risk
有限風險Limited Risk
低風險/無風險Minimal/No Risk
生物辨識監控Biometric Surveillance
社會信用評分Social Credit Scoring
符合性評估Conformity Assessment
人為監督Human Oversight
資料治理Data Governance
通用目的 AI 模型General-Purpose AI Model (GPAI)
系統性風險Systemic Risk
紅隊演練Red Teaming
域外效力Extraterritorial Effect
CE 標誌CE Marking
風險比例原則Risk-Proportionate Approach

考試重點

必考知識點整理

  1. 四級風險的定義與代表應用:不可接受(禁止)、高風險(嚴格合規)、有限風險(透明度)、低風險(幾乎無義務)

  2. 禁止類 AI 的三大代表:社會信用評分、公共場所即時生物辨識、操控弱勢族群的 AI

  3. 高風險 AI 六大義務:資料治理、技術文件、透明度、人為監督、準確性/穩健性、符合性評估

  4. 罰款金額:禁止類 7%/€35M;高風險違規 3%/€15M;不實資訊 1%/€7.5M

  5. GPAI 的系統性風險門檻:10²⁵ FLOPs

  6. 情緒辨識的雙重地位:職場/教育 = 禁止;其他情境 = 有限風險

  7. AI Act 生效時間:2024 年通過,禁止類 2025 年 2 月起適用


隨堂小測驗

Q1. 依據歐盟 AI Act,下列哪種 AI 應用屬於「不可接受風險」,在歐盟境內完全禁止?

  • (A) 用於信貸審核的 AI 評分系統
  • (B) 具備自動回應功能的客服聊天機器人
  • (C) 政府在公共場所部署的即時人臉辨識系統
  • (D) 用於電影推薦的協同過濾演算法

Q2. 某醫院導入 AI 系統輔助影像診斷(如偵測 X 光片中的腫瘤)。根據 AI Act,此系統屬於哪個風險等級,且必須滿足哪項義務?

  • (A) 有限風險;僅需告知病患正在使用 AI
  • (B) 高風險;必須完成符合性評估並建立人為監督機制
  • (C) 低風險;無額外義務
  • (D) 不可接受風險;必須立即停止使用

Q3. AI Act 對於聊天機器人(Chatbot)的主要規範要求是什麼?

  • (A) 禁止使用,因為可能誤導使用者
  • (B) 必須告知使用者正在與 AI 互動(透明度義務)
  • (C) 必須完成第三方符合性評估
  • (D) 需向歐盟 AI 資料庫登記

Q4. 一家美國 AI 公司開發的招募篩選系統被歐洲企業採用用於歐洲員工招募。若該系統違反 AI Act 高風險合規要求,最高可處何種罰款?

  • (A) 不受罰,因為該公司總部在美國
  • (B) €7,500,000 或全球年營業額 1%(取較高者)
  • (C) €15,000,000 或全球年營業額 3%(取較高者)
  • (D) €35,000,000 或全球年營業額 7%(取較高者)

Q5. 下列關於通用目的 AI 模型(GPAI)的敘述,何者正確?

  • (A) 所有 GPAI 都需要完成符合性評估並取得 CE 標誌
  • (B) 訓練算力超過 10²⁵ FLOPs 的 GPAI 被視為具系統性風險,需額外進行紅隊演練
  • (C) GPAI 不在 AI Act 規範範圍內,因為它們是通用工具
  • (D) GPAI 開發商無需公開任何訓練資料資訊

解答

題號答案解析
Q1C公共場所即時生物辨識(即時人臉辨識)屬於不可接受風險,完全禁止。信貸審核屬高風險,聊天機器人屬有限風險,推薦演算法屬低風險。
Q2B醫療 AI 診斷輔助系統被明確列於 Annex III 高風險清單。高風險系統必須完成符合性評估,並建立人為監督機制。
Q3B聊天機器人屬有限風險,核心義務是透明度——必須主動告知使用者正在與 AI 而非真人互動。
Q4CAI Act 具域外效力,只要系統在歐盟境內使用即受管轄。招募 AI 屬高風險,違規罰款上限為 €15M 或全球年營業額 3%。
Q5BAI Act 第 51 條規定,訓練算力超過 10²⁵ FLOPs 的 GPAI 具系統性風險,需額外進行對抗性測試(紅隊演練)、通報事故等。