一、學習目標
讀完這篇文章,你將能夠:
- 列舉 AI 的五大風險類型,並說明每種風險的實際案例
- 解釋三種 AI 安全防護技術的原理(差分隱私、聯邦學習、對抗訓練)
- 說明**歐盟 AI 法(EU AI Act)**的四級風險分類架構,並能判斷各應用屬於哪一級
- 描述 NIST AI RMF 的四大支柱功能
- 整理台灣現行 AI 相關政策的主管機關與對象
- 說明企業建立 AI 治理的五個面向與實施步驟
二、核心內容
2.1 AI 的五大風險類型
就像蓋房子要先了解地震、颱風、火災等風險,導入 AI 前也要先摸清楚它有哪些風險。
風險一:資料偏見(Data Bias)
類比:你用「過去 10 年錄取的學生資料」訓練一個招生 AI。但過去 10 年,某科系女生錄取率本來就低——於是 AI 學到了這個偏見,未來繼續歧視女性申請者。
資料偏見的三種來源:
| 類型 | 說明 | 例子 |
|---|---|---|
| 抽樣偏見 | 訓練資料不代表真實世界 | 皮膚病 AI 只用白人皮膚照片訓練 |
| 歷史偏見 | 資料反映了過去的歧視 | 用歷史犯罪紀錄預測再犯率,結果歧視特定族裔 |
| 標記偏見 | 人工標記者的主觀偏見進入資料 | 不同人對同一張圖的標記結果不同 |
風險二:模型漂移(Model Drift)
類比:你雇了一個很厲害的老員工,他 10 年前的市場經驗非常豐富。但市場變了,他的判斷卻還停在 10 年前——這就是「漂移」。
AI 模型在訓練時學習的是「過去」的資料分佈。現實世界不斷變化,模型若不更新,準確率會逐漸下降。
- 資料漂移(Data Drift):輸入資料的分佈改變(例如 COVID 讓消費行為大變)
- 概念漂移(Concept Drift):輸入和輸出的關係改變(例如「優質貸款人」的定義改變)
考試重點:模型漂移是 AI 系統上線後最常見的維護問題。解法是「持續監控 + 定期重新訓練」。
風險三:對抗性攻擊(Adversarial Attacks)
類比:停車場的 AI 辨識牌照系統,駭客在牌照上貼幾個小貼紙,AI 就辨識不出來——但人眼一眼就看得出是什麼號碼。
對抗性攻擊是指刻意設計的輸入,讓 AI 產生錯誤判斷。常見於:
- 圖像識別(自駕車辨識停止標誌)
- 語音識別(嵌入人耳聽不見的指令)
- 惡意程式偵測(讓病毒躲過 AI 掃描)
風險四:隱私洩露(Privacy Breach)
類比:你把日記鎖在保險箱(加密資料),但有人偷偷觀察你每次打開保險箱的時間、頻率,還是能推測出很多事——這就是「側通道攻擊」。
AI 訓練過程中,模型可能「記住」訓練資料的細節。有技術可以從訓練好的模型中「萃取」出原始訓練資料,造成隱私洩露。
風險五:深偽技術濫用(Deepfake Abuse)
類比:以前偽造一張照片需要專業修圖師花幾小時,現在 AI 幾秒鐘就能生成以假亂真的影片。門檻大幅降低,濫用風險飆升。
深偽技術的危害:
- 政治操弄(偽造政治人物言論)
- 金融詐騙(偽造 CEO 聲音下達轉帳指令)
- 名譽損害(偽造名人影片)
- 司法困境(影片證據的公信力下降)
2.2 三大 AI 安全防護技術
知道風險,還要知道怎麼防。以下三種技術是 iPAS 考試的重點。
技術一:差分隱私(Differential Privacy)
類比:醫院想研究病人的平均血壓,但不能洩露每個人的資料。解法:在每個人的資料上加一點隨機「雜訊」——每個人的數字變得不準,但大量資料聚合後,整體統計結果仍然準確。
差分隱私就是「讓你無法從結果中判斷某個特定個體有沒有在資料集裡」,同時保留整體統計分析的有效性。Apple 在收集 Emoji 使用習慣時就使用了差分隱私。
技術二:聯邦學習(Federated Learning)
類比:全台灣 100 家醫院想合作訓練一個癌症診斷 AI,但病歷不能出院。解法:每家醫院在自己的電腦上訓練模型,只把「訓練結果(模型參數)」傳出去,原始病歷留在院內——大家的結果匯總後得到一個強大的共同模型。
聯邦學習架構
醫院 A 醫院 B 醫院 C
[本地資料] [本地資料] [本地資料]
↓ ↓ ↓
本地訓練 本地訓練 本地訓練
↓ ↓ ↓
[模型更新] ──→ 中央伺服器 ←── [模型更新]
↓
[全局模型更新]
↓
←──── 分發回各醫院 ────→
關鍵優點:資料不出門,隱私有保障;但各地模型仍能合力變聰明。
技術三:對抗性訓練(Adversarial Training)
類比:武術訓練不能只在舒適的道館練。讓學生和強大的對手對打,挨打多了,才能真的變強。
對抗性訓練就是:在訓練過程中刻意加入對抗性樣本(攻擊範例),讓模型見識過各種攻擊手法,提升對攻擊的抵抗力。
| 技術 | 解決的風險 | 代價 |
|---|---|---|
| 差分隱私 | 隱私洩露 | 模型準確率略降 |
| 聯邦學習 | 隱私洩露、資料外流 | 通訊成本、訓練較複雜 |
| 對抗性訓練 | 對抗性攻擊 | 訓練時間增加 |
2.3 歐盟 AI 法(EU AI Act):全球第一部 AI 法律
2024 年 3 月,歐洲議會正式通過《歐盟 AI 法(EU Artificial Intelligence Act)》,成為全球第一部全面性的 AI 法律。就像歐盟的 GDPR 改變了全球資料隱私標準,EU AI Act 也預計引領全球 AI 監管走向。
EU AI Act 的核心邏輯:風險越高,管得越嚴。把所有 AI 應用分成四個風險等級:
四級風險金字塔
▲
╱ ╲
╱ 不 ╲ 不可接受風險(Unacceptable Risk)
╱ 可 接 ╲ 全面禁止
╱ 受 風 險 ╲
═════════════
╱ ╲
╱ 高 風 險 ╲ 高風險(High Risk)
╱ ╲ 嚴格監管
═══════════════════
╱ 有限風險 ╲ 有限風險(Limited Risk)
══════════════════════ 透明度義務
╱ 低/微小風險 ╲ 低風險(Low/Minimal Risk)
══════════════════════ 最少限制
各級詳細說明
| 風險等級 | 監管態度 | 典型應用範例 |
|---|---|---|
| 不可接受風險 Unacceptable Risk | 完全禁止 | 政府的社會評分系統(如中國式信用評分)、即時生物辨識大規模監控、潛意識操控技術 |
| 高風險 High Risk | 嚴格規範,上市前需審查 | 醫療診斷 AI、自駕車、徵信評分、司法輔助工具、關鍵基礎設施管理 |
| 有限風險 Limited Risk | 透明度義務(必須告知是 AI) | 聊天機器人(需告知用戶)、Deepfake 內容(需標示) |
| 低/微小風險 Low/Minimal Risk | 自願遵守行為準則 | AI 垃圾郵件過濾、AI 推薦系統、AI 遊戲 NPC |
考試重點:EU AI Act 的「不可接受風險」類別最常出題。記住:社會評分系統和即時大規模生物辨識監控是明確禁止的。
考試重點:EU AI Act 於 2024 年通過,是全球第一部全面性 AI 法律,採「風險分級」監管方式。
2.4 美國 NIST AI 風險管理框架(NIST AI RMF)
美國採取的是比較「引導式」的方法,由**國家標準暨技術研究院(NIST)**於 2023 年發布 AI 風險管理框架(AI RMF),提供企業自願遵循的最佳實踐。
NIST AI RMF 四大支柱(Core Functions):
| 支柱 | 英文 | 核心問題 | 主要活動 |
|---|---|---|---|
| 治理 | Govern | 我們的組織如何看待 AI 風險? | 建立 AI 風險文化、政策、責任分工 |
| 地圖 | Map | 這個 AI 系統有哪些風險? | 識別 AI 情境、利害關係人、潛在危害 |
| 量測 | Measure | 風險有多大? | 分析、評估、量化風險程度 |
| 管理 | Manage | 我們要怎麼處理這些風險? | 優先排序、處置、監控、改善 |
類比:
- Govern = 公司的「食安文化」——老闆重視,大家才會認真
- Map = 檢查廚房裡哪些食材快過期、哪個步驟容易交叉汙染
- Measure = 評估每個問題的嚴重程度(過期一天 vs. 過期一個月差很多)
- Manage = 決定先處理最嚴重的問題,並持續追蹤
考試重點:NIST AI RMF 是美國發布的,是自願性框架(非強制法律),四大功能 Govern、Map、Measure、Manage。
2.5 台灣 AI 政策現況
台灣目前沒有單一的「AI 法」,而是由各主管機關針對各自管轄領域發布指引。
| 發布機關 | 政策文件 | 主要對象 |
|---|---|---|
| 數位部 | 公部門 AI 應用推動手冊 | 政府機關、公務員 |
| 金管會 | 金融業 AI 應用指引 | 銀行、保險、證券業 |
| 經濟部 | 製造業 AI 應用指引 | 傳統製造業、工廠 |
| 行政院 | AI 基本法草案(研議中) | 全體產業(未來立法基礎) |
台灣的監管策略可歸納為:
- 分業監管:各部會管各自領域,沒有單一 AI 主管機關
- 以指引先行:先發布不具法律效力的指引,待實務成熟後再立法
- 接軌國際:參考 EU AI Act 和 NIST AI RMF 的架構設計
考試重點:台灣目前沒有「AI 法」,但**「AI 基本法草案」正在研議中。金融業的 AI 指引由金管會**發布。
2.6 企業 AI 治理的五個面向與實施步驟
企業要真正做好 AI 治理,需要從五個面向系統性建立:
| 面向 | 說明 | 具體措施 |
|---|---|---|
| 1. 策略與政策 | 企業 AI 的整體方向 | 制定 AI 倫理準則、建立 AI 使用政策 |
| 2. 組織與文化 | 誰來負責 AI 治理 | 成立 AI 倫理委員會、指定 AI 負責人 |
| 3. 風險管理 | 識別與控制 AI 風險 | 進行 AI 風險評估、建立分級管理機制 |
| 4. 技術與工具 | 用技術手段確保治理 | 導入 XAI 工具、模型監控、偏見偵測 |
| 5. 透明與溝通 | 對內外部利害關係人說明 | 發布 AI 使用報告、公開 Model Card |
企業建立 AI 治理的六步驟:
- 盤點現有 AI 應用——先搞清楚公司裡有哪些 AI 在用
- 進行風險分級——參考 EU AI Act 邏輯,評估每個 AI 的風險等級
- 建立政策框架——制定 AI 倫理準則和使用政策
- 設立治理機制——成立委員會或指定負責人
- 導入技術工具——偏見偵測、可解釋 AI、模型監控
- 持續監控改善——定期稽核,跟上法規變化
考試重點:企業 AI 治理不是一次性的工作,而是「持續循環」的過程——建立、監控、改善、再建立。
三、關鍵名詞中英對照
| 中文 | 英文 | 說明 |
|---|---|---|
| 資料偏見 | Data Bias | 訓練資料不平衡導致 AI 輸出歧視性結果 |
| 模型漂移 | Model Drift | 現實世界變化導致模型準確率下降 |
| 對抗性攻擊 | Adversarial Attacks | 刻意設計的輸入讓 AI 產生錯誤判斷 |
| 差分隱私 | Differential Privacy | 在資料加入雜訊保護個人隱私的技術 |
| 聯邦學習 | Federated Learning | 資料不移動、只分享模型更新的分散式訓練 |
| 對抗性訓練 | Adversarial Training | 以攻擊樣本訓練模型提升抵抗力 |
| 歐盟 AI 法 | EU AI Act | 2024年通過的全球第一部全面性 AI 法律 |
| 不可接受風險 | Unacceptable Risk | EU AI Act 中完全禁止的 AI 應用類別 |
| 高風險 | High Risk | EU AI Act 中需嚴格監管的 AI 應用類別 |
| 有限風險 | Limited Risk | EU AI Act 中需履行透明度義務的類別 |
| NIST AI RMF | NIST AI Risk Management Framework | 美國自願性 AI 風險管理框架 |
| 治理 | Govern | NIST AI RMF 第一支柱 |
| 地圖 | Map | NIST AI RMF 第二支柱 |
| 量測 | Measure | NIST AI RMF 第三支柱 |
| 管理 | Manage | NIST AI RMF 第四支柱 |
| 深偽技術 | Deepfake | AI 生成的以假亂真影音內容 |
| AI 基本法 | AI Basic Act | 台灣研議中的 AI 基礎法律框架 |
四、考試重點提示
考試重點:EU AI Act 在 2024 年 3 月通過,是全球第一部全面性 AI 法律,採「風險分級」監管。
考試重點:EU AI Act 四級風險由高到低:不可接受 → 高風險 → 有限風險 → 低風險。「社會信用評分系統」屬於「不可接受風險」,直接禁止。
考試重點:NIST AI RMF 是美國的自願性框架(不是法律),四大功能:Govern、Map、Measure、Manage。
考試重點:聯邦學習的核心特點是「原始資料不離開本地」,各端只分享模型更新(梯度/參數),非常適合醫療、金融等隱私敏感場景。
考試重點:台灣金融業 AI 指引由金管會發布;公部門 AI 推動手冊由數位部發布;整體 AI 基本法草案由行政院研議。
考試重點:模型漂移(Model Drift)分兩種:資料漂移(輸入分佈改變)和概念漂移(輸入輸出關係改變)。解法是持續監控 + 定期重訓。
第 1 題 根據歐盟 AI Act,下列哪個 AI 應用屬於「不可接受風險」,應被完全禁止?
A. 醫院使用的癌症影像診斷 AI B. 政府建立的全民社會信用評分系統 C. 電商網站的商品推薦演算法 D. 聊天機器人客服系統
第 2 題 「聯邦學習(Federated Learning)」最主要解決的問題是什麼?
A. 加速深度學習模型的訓練速度 B. 在不共享原始資料的情況下,讓多方協同訓練 AI 模型 C. 讓 AI 模型能抵抗對抗性攻擊 D. 自動偵測並修正訓練資料中的偏見
第 3 題 一個電商平台的商品推薦 AI,上線半年後準確率明顯下降,原因是消費者行為因市場變化而改變。這個問題最可能是哪種 AI 風險?
A. 對抗性攻擊(Adversarial Attack) B. 資料偏見(Data Bias) C. 模型漂移(Model Drift) D. 隱私洩露(Privacy Breach)
第 4 題 NIST AI RMF 與歐盟 AI Act 的主要差異是什麼?
A. NIST AI RMF 是法律,EU AI Act 是自願性框架 B. NIST AI RMF 是美國的自願性框架,EU AI Act 是歐盟強制性法律 C. 兩者都是法律,但適用地區不同 D. 兩者都是自願性框架,沒有法律強制力
第 5 題 根據台灣現行政策,下列敘述何者正確?
A. 台灣已通過「AI 法」,由數位部統一主管 B. 台灣金融業 AI 指引由經濟部發布 C. 台灣採分業監管,金融業 AI 指引由金管會發布,AI 基本法草案仍在研議中 D. 台灣完全參照歐盟 AI Act,直接適用四級風險分類
解答與解析
| 題號 | 答案 | 解析 |
|---|---|---|
| 1 | B | EU AI Act 明確禁止政府建立的社會信用評分系統,因其對公民進行全面性評分與控制,嚴重侵害基本人權。A(醫療診斷 AI)屬於「高風險」(嚴格監管但允許),C(推薦系統)和 D(聊天機器人)屬於「低風險」或「有限風險」。 |
| 2 | B | 聯邦學習的核心價值是「資料在地,模型共享」——各參與方的原始資料留在本地,只上傳模型更新(梯度),中央整合後再分發,實現多方協作且保護隱私。加速訓練(A)是分散式計算的功能;抵抗攻擊(C)是對抗性訓練;修正偏見(D)需要其他工具。 |
| 3 | C | 消費者行為改變 → 輸入資料分佈改變 → 模型準確率下降,這是「資料漂移(Data Drift)」,屬於模型漂移(Model Drift)的一種。資料偏見(B)是訓練時的問題,不是上線後準確率下降的描述。 |
| 4 | B | NIST AI RMF(2023年發布)是美國聯邦機構發布的自願性最佳實踐框架,企業可自由選擇是否採用。EU AI Act(2024年通過)是歐盟的強制性法律,違反者面臨高額罰款(最高達全球年營業額的 7%)。 |
| 5 | C | 台灣目前沒有單一 AI 法,採分業監管:金融業由金管會負責(非經濟部),公部門由數位部指導,整體 AI 基本法草案由行政院研議中但尚未通過。台灣有參考 EU AI Act,但並非直接適用。 |