學習目標
完成本篇後,你將能夠:
- 說明歐盟 AI Act 的立法背景與全球意義
- 區分四個風險等級,並舉出各等級代表性 AI 應用
- 理解高風險 AI 的六大合規義務
- 掌握通用目的 AI(GPAI)的特殊規範
- 估算違規罰款金額,並描述企業合規的基本步驟
核心內容
一、立法背景:全球第一部全面性 AI 法規
歐盟 AI Act(Artificial Intelligence Act,人工智慧法案)於 2021 年提案,歷經三年談判,於 2024 年正式通過,成為全球第一部針對 AI 系統全面監管的法律。
生活比喻:把 AI Act 想成「AI 的道路交通法」——不是禁止所有人開車,而是根據車輛的危險程度(機車、轎車、聯結車、危險物品車)訂定不同的駕駛規範與檢驗要求。
立法核心精神:
- 以風險比例原則(Risk-proportionate approach)為基礎
- 保護歐盟公民基本權利
- 同時促進 AI 創新與競爭力
生效時間軸:
| 時間點 | 事項 |
|---|---|
| 2024 年 8 月 | 法規正式生效 |
| 2025 年 2 月 | 禁止類 AI 應用條款開始適用 |
| 2026 年 8 月 | 高風險 AI 完整合規義務生效 |
| 2027 年 8 月 | 部分特定系統延伸適用期結束 |
二、四級風險金字塔
┌─────────┐
│ 禁止使用 │ ← 不可接受風險(Unacceptable Risk)
└─────────┘
┌─────────────┐
│ 嚴格監管 │ ← 高風險(High Risk)
└─────────────┘
┌─────────────────┐
│ 透明度義務即可 │ ← 有限風險(Limited Risk)
└─────────────────┘
┌─────────────────────┐
│ 幾乎無額外義務 │ ← 低風險/無風險(Minimal/No Risk)
└─────────────────────┘
三、第一級:不可接受風險(Unacceptable Risk)——直接禁止
這些 AI 應用被認為與歐盟基本價值根本衝突,完全禁止在歐盟境內使用:
禁止項目與禁止原因
| 禁止應用 | 英文術語 | 禁止原因 |
|---|---|---|
| 公共場所即時生物辨識監控 | Real-time biometric surveillance | 侵犯隱私與匿名移動自由 |
| 社會信用評分系統 | Social credit scoring | 系統性歧視,違反人性尊嚴 |
| 針對弱勢族群的操控性 AI | Manipulative AI targeting vulnerable groups | 利用認知弱點剝奪自主決策 |
| 潛意識影響行為的 AI | Subliminal manipulation | 繞過意識操控,不道德 |
| 預測性警務(基於特徵) | Predictive policing based on profiling | 未犯罪先懲罰,違反無罪推定 |
| 情緒辨識(教育與職場) | Emotion recognition in education/workplace | 侵入性強,準確率存疑 |
考試提示:注意「即時」生物辨識的禁止存在有限例外——例如追捕嚴重罪犯(恐攻等)且需事前司法授權。事後生物辨識(錄影後分析)屬於高風險類別,並非全面禁止。
四、第二級:高風險(High Risk)——嚴格合規義務
高風險 AI 系統並非禁止,但必須在上市或部署前完成合規義務。
高風險 AI 應用清單
Annex II — 安全組件類(用於受監管產品):
- 自動駕駛車輛(Autonomous vehicles)
- 醫療設備的 AI 組件(Medical device AI components)
- 航空、鐵路、水運的 AI 安全系統
Annex III — 獨立高風險 AI 系統:
| 領域 | 典型 AI 應用 |
|---|---|
| 教育 | 入學篩選系統、學習評量 AI |
| 就業 | AI 履歷篩選、求職者評分、績效監控 |
| 信用評分 | 貸款審核 AI、保險風險評估 |
| 醫療 | AI 診斷輔助、外科手術機器人 |
| 法律執行 | 犯罪預測、測謊、證據評估 AI |
| 移民 | 簽證審核 AI、難民申請評估 |
| 關鍵基礎設施 | 電網、供水系統管理 AI |
| 民主程序 | 選舉資訊系統 AI |
六大合規義務
高風險 AI 系統必須滿足以下六項要求:
1. 資料治理(Data Governance)
- 訓練資料必須具代表性、無歧視
- 記錄資料來源、處理流程
- 定期檢查資料品質
2. 技術文件(Technical Documentation)
- 系統架構、設計邏輯完整記錄
- 風險評估報告
- 訓練/測試資料集描述
3. 透明度與使用者資訊(Transparency)
- 必須告知使用者 AI 系統的能力與限制
- 提供清晰的使用說明
4. 人為監督(Human Oversight)
- 必須設計允許人工介入的機制
- 不可完全排除人類判斷
5. 準確性與穩健性(Accuracy & Robustness)
- 必須記錄效能指標
- 抵禦對抗性攻擊(Adversarial attacks)
- 對錯誤和資料漂移具備回復力
6. 符合性評估(Conformity Assessment)
- 部署前需完成第三方或自我評估
- 通過後貼上 CE 標誌
- 需向歐盟 AI 資料庫登記
生活比喻:高風險 AI 就像汽車出廠——你可以賣車,但必須通過撞擊測試、排放測試,取得型式認證,還要在出廠文件上清楚標示安全規格。
五、第三級:有限風險(Limited Risk)——透明度義務
有限風險 AI 的監管重點在於確保使用者知情:
| AI 應用 | 要求 |
|---|---|
| 聊天機器人(Chatbots) | 必須主動告知使用者正在與 AI 互動 |
| Deepfake 影音內容 | 必須清楚標示為 AI 生成 |
| 情緒辨識系統(非職場/教育) | 必須告知被辨識對象 |
| AI 生成文字(影響公眾輿論) | 需標示為 AI 生成 |
考試提示:「情緒辨識」在不同情境下屬於不同風險等級!用於職場或教育的情緒辨識屬於禁止類;用於其他情境屬於有限風險。
六、第四級:低風險/無風險(Minimal/No Risk)——幾乎無義務
絕大多數現行 AI 應用都落在此類:
- 垃圾郵件過濾器(Spam filters)
- 遊戲 AI(Game AI)
- 推薦演算法(Recommendation engines,如 Netflix 推薦)
- 翻譯軟體
- AI 圖片濾鏡
歐盟鼓勵業者自願遵循行為準則(Codes of conduct),但無強制義務。
七、通用目的 AI 模型(GPAI)的特別規範
AI Act 另設專章規範大型基礎模型,如 GPT-4、Gemini、Claude 等。
GPAI 定義:可執行多種任務、透過大量資料訓練的 AI 模型(General-Purpose AI Model)
所有 GPAI 的基本義務
| 義務 | 內容 |
|---|---|
| 透明度 | 提供技術文件,說明訓練方法與資料 |
| 版權合規 | 建立版權政策,遵守版權保留聲明(opt-out) |
| 使用摘要 | 公開訓練資料摘要 |
具「系統性風險」的 GPAI 額外義務
訓練算力超過 10²⁵ FLOPs 的模型被視為具系統性風險(Systemic risk),需額外:
- 進行對抗性測試(紅隊演練,Red teaming)
- 向歐盟委員會通報重大事故
- 確保網路安全防護
- 評估並降低系統性風險
八、罰款與執法
罰款上限
| 違規類型 | 罰款上限 |
|---|---|
| 使用禁止類 AI 應用 | €35,000,000 或全球年營業額 7%(取較高者) |
| 違反高風險合規義務 | €15,000,000 或全球年營業額 3% |
| 提供不實資訊給主管機關 | €7,500,000 或全球年營業額 1% |
| 中小企業/新創(特別規定) | 適用較低上限 |
考試提示:禁止類 AI 的罰款是 7% 或 €35M;高風險合規違規是 3% 或 €15M;提供不實資訊是 1% 或 €7.5M。數字要記清楚!
九、企業合規步驟
Step 1:AI 系統盤點 列出公司所有 AI 系統,判斷各系統屬於哪個風險等級。
Step 2:差距分析(Gap Analysis) 對照各等級要求,找出現有系統的合規缺口。
Step 3:高風險系統優先處理 完成資料治理文件、建立人為監督機制、啟動符合性評估。
Step 4:建立 AI 登記清冊 向歐盟 AI 資料庫(EU AI Database)登記高風險 AI 系統。
Step 5:持續監控與更新 AI 系統重大更新後需重新評估風險等級與合規狀態。
十、與美國、台灣的監管方式比較
| 面向 | 歐盟 AI Act | 美國 | 台灣 |
|---|---|---|---|
| 監管方式 | 強制性立法(Mandatory law) | 自願性框架為主(NIST AI RMF) | 政策指引為主,立法研議中 |
| 覆蓋範圍 | 全面(跨產業) | 分散(各產業個別規範) | 有限(特定領域) |
| 風險分類 | 四級金字塔 | 無統一分類 | 參考 OECD 原則 |
| 罰款機制 | 有(最高 7%) | 無統一罰款 | 無 |
| 域外效力 | 有(影響全球企業) | 有限 | 無 |
| 立法時間 | 2024 年通過 | 無全面立法 | 研議中 |
考試提示:歐盟 AI Act 的「域外效力」(Extraterritorial effect)非常重要——只要 AI 系統在歐盟境內使用或輸出,無論企業總部在哪,都必須遵守。
名詞對照
| 中文 | English |
|---|---|
| 人工智慧法案 | AI Act / Artificial Intelligence Act |
| 不可接受風險 | Unacceptable Risk |
| 高風險 | High Risk |
| 有限風險 | Limited Risk |
| 低風險/無風險 | Minimal/No Risk |
| 生物辨識監控 | Biometric Surveillance |
| 社會信用評分 | Social Credit Scoring |
| 符合性評估 | Conformity Assessment |
| 人為監督 | Human Oversight |
| 資料治理 | Data Governance |
| 通用目的 AI 模型 | General-Purpose AI Model (GPAI) |
| 系統性風險 | Systemic Risk |
| 紅隊演練 | Red Teaming |
| 域外效力 | Extraterritorial Effect |
| CE 標誌 | CE Marking |
| 風險比例原則 | Risk-Proportionate Approach |
考試重點
必考知識點整理
-
四級風險的定義與代表應用:不可接受(禁止)、高風險(嚴格合規)、有限風險(透明度)、低風險(幾乎無義務)
-
禁止類 AI 的三大代表:社會信用評分、公共場所即時生物辨識、操控弱勢族群的 AI
-
高風險 AI 六大義務:資料治理、技術文件、透明度、人為監督、準確性/穩健性、符合性評估
-
罰款金額:禁止類 7%/€35M;高風險違規 3%/€15M;不實資訊 1%/€7.5M
-
GPAI 的系統性風險門檻:10²⁵ FLOPs
-
情緒辨識的雙重地位:職場/教育 = 禁止;其他情境 = 有限風險
-
AI Act 生效時間:2024 年通過,禁止類 2025 年 2 月起適用
Q1. 依據歐盟 AI Act,下列哪種 AI 應用屬於「不可接受風險」,在歐盟境內完全禁止?
- (A) 用於信貸審核的 AI 評分系統
- (B) 具備自動回應功能的客服聊天機器人
- (C) 政府在公共場所部署的即時人臉辨識系統
- (D) 用於電影推薦的協同過濾演算法
Q2. 某醫院導入 AI 系統輔助影像診斷(如偵測 X 光片中的腫瘤)。根據 AI Act,此系統屬於哪個風險等級,且必須滿足哪項義務?
- (A) 有限風險;僅需告知病患正在使用 AI
- (B) 高風險;必須完成符合性評估並建立人為監督機制
- (C) 低風險;無額外義務
- (D) 不可接受風險;必須立即停止使用
Q3. AI Act 對於聊天機器人(Chatbot)的主要規範要求是什麼?
- (A) 禁止使用,因為可能誤導使用者
- (B) 必須告知使用者正在與 AI 互動(透明度義務)
- (C) 必須完成第三方符合性評估
- (D) 需向歐盟 AI 資料庫登記
Q4. 一家美國 AI 公司開發的招募篩選系統被歐洲企業採用用於歐洲員工招募。若該系統違反 AI Act 高風險合規要求,最高可處何種罰款?
- (A) 不受罰,因為該公司總部在美國
- (B) €7,500,000 或全球年營業額 1%(取較高者)
- (C) €15,000,000 或全球年營業額 3%(取較高者)
- (D) €35,000,000 或全球年營業額 7%(取較高者)
Q5. 下列關於通用目的 AI 模型(GPAI)的敘述,何者正確?
- (A) 所有 GPAI 都需要完成符合性評估並取得 CE 標誌
- (B) 訓練算力超過 10²⁵ FLOPs 的 GPAI 被視為具系統性風險,需額外進行紅隊演練
- (C) GPAI 不在 AI Act 規範範圍內,因為它們是通用工具
- (D) GPAI 開發商無需公開任何訓練資料資訊
解答
| 題號 | 答案 | 解析 |
|---|---|---|
| Q1 | C | 公共場所即時生物辨識(即時人臉辨識)屬於不可接受風險,完全禁止。信貸審核屬高風險,聊天機器人屬有限風險,推薦演算法屬低風險。 |
| Q2 | B | 醫療 AI 診斷輔助系統被明確列於 Annex III 高風險清單。高風險系統必須完成符合性評估,並建立人為監督機制。 |
| Q3 | B | 聊天機器人屬有限風險,核心義務是透明度——必須主動告知使用者正在與 AI 而非真人互動。 |
| Q4 | C | AI Act 具域外效力,只要系統在歐盟境內使用即受管轄。招募 AI 屬高風險,違規罰款上限為 €15M 或全球年營業額 3%。 |
| Q5 | B | AI Act 第 51 條規定,訓練算力超過 10²⁵ FLOPs 的 GPAI 具系統性風險,需額外進行對抗性測試(紅隊演練)、通報事故等。 |