ANGELA JIAN
LOADING
回到課程總覽
第 3 篇 L11102 AI 基礎概念

AI 風險管理與全球法規:從歐盟 AI Act 到台灣政策

Angela Jian
Angela Jian 簡琬庭
iPAS AI 應用規劃師 / AI Product Builder

一、學習目標

讀完這篇文章,你將能夠:

  1. 列舉 AI 的五大風險類型,並說明每種風險的實際案例
  2. 解釋三種 AI 安全防護技術的原理(差分隱私、聯邦學習、對抗訓練)
  3. 說明**歐盟 AI 法(EU AI Act)**的四級風險分類架構,並能判斷各應用屬於哪一級
  4. 描述 NIST AI RMF 的四大支柱功能
  5. 整理台灣現行 AI 相關政策的主管機關與對象
  6. 說明企業建立 AI 治理的五個面向與實施步驟

二、核心內容

2.1 AI 的五大風險類型

就像蓋房子要先了解地震、颱風、火災等風險,導入 AI 前也要先摸清楚它有哪些風險。

風險一:資料偏見(Data Bias)

類比:你用「過去 10 年錄取的學生資料」訓練一個招生 AI。但過去 10 年,某科系女生錄取率本來就低——於是 AI 學到了這個偏見,未來繼續歧視女性申請者。

資料偏見的三種來源:

類型說明例子
抽樣偏見訓練資料不代表真實世界皮膚病 AI 只用白人皮膚照片訓練
歷史偏見資料反映了過去的歧視用歷史犯罪紀錄預測再犯率,結果歧視特定族裔
標記偏見人工標記者的主觀偏見進入資料不同人對同一張圖的標記結果不同

風險二:模型漂移(Model Drift)

類比:你雇了一個很厲害的老員工,他 10 年前的市場經驗非常豐富。但市場變了,他的判斷卻還停在 10 年前——這就是「漂移」。

AI 模型在訓練時學習的是「過去」的資料分佈。現實世界不斷變化,模型若不更新,準確率會逐漸下降。

  • 資料漂移(Data Drift):輸入資料的分佈改變(例如 COVID 讓消費行為大變)
  • 概念漂移(Concept Drift):輸入和輸出的關係改變(例如「優質貸款人」的定義改變)

考試重點:模型漂移是 AI 系統上線後最常見的維護問題。解法是「持續監控 + 定期重新訓練」。

風險三:對抗性攻擊(Adversarial Attacks)

類比:停車場的 AI 辨識牌照系統,駭客在牌照上貼幾個小貼紙,AI 就辨識不出來——但人眼一眼就看得出是什麼號碼。

對抗性攻擊是指刻意設計的輸入,讓 AI 產生錯誤判斷。常見於:

  • 圖像識別(自駕車辨識停止標誌)
  • 語音識別(嵌入人耳聽不見的指令)
  • 惡意程式偵測(讓病毒躲過 AI 掃描)

風險四:隱私洩露(Privacy Breach)

類比:你把日記鎖在保險箱(加密資料),但有人偷偷觀察你每次打開保險箱的時間、頻率,還是能推測出很多事——這就是「側通道攻擊」。

AI 訓練過程中,模型可能「記住」訓練資料的細節。有技術可以從訓練好的模型中「萃取」出原始訓練資料,造成隱私洩露。

風險五:深偽技術濫用(Deepfake Abuse)

類比:以前偽造一張照片需要專業修圖師花幾小時,現在 AI 幾秒鐘就能生成以假亂真的影片。門檻大幅降低,濫用風險飆升。

深偽技術的危害:

  • 政治操弄(偽造政治人物言論)
  • 金融詐騙(偽造 CEO 聲音下達轉帳指令)
  • 名譽損害(偽造名人影片)
  • 司法困境(影片證據的公信力下降)

2.2 三大 AI 安全防護技術

知道風險,還要知道怎麼防。以下三種技術是 iPAS 考試的重點。

技術一:差分隱私(Differential Privacy)

類比:醫院想研究病人的平均血壓,但不能洩露每個人的資料。解法:在每個人的資料上加一點隨機「雜訊」——每個人的數字變得不準,但大量資料聚合後,整體統計結果仍然準確。

差分隱私就是「讓你無法從結果中判斷某個特定個體有沒有在資料集裡」,同時保留整體統計分析的有效性。Apple 在收集 Emoji 使用習慣時就使用了差分隱私。

技術二:聯邦學習(Federated Learning)

類比:全台灣 100 家醫院想合作訓練一個癌症診斷 AI,但病歷不能出院。解法:每家醫院在自己的電腦上訓練模型,只把「訓練結果(模型參數)」傳出去,原始病歷留在院內——大家的結果匯總後得到一個強大的共同模型。

聯邦學習架構

  醫院 A          醫院 B          醫院 C
 [本地資料]      [本地資料]      [本地資料]
     ↓               ↓               ↓
 本地訓練         本地訓練         本地訓練
     ↓               ↓               ↓
 [模型更新] ──→  中央伺服器  ←── [模型更新]

              [全局模型更新]

     ←──── 分發回各醫院 ────→

關鍵優點:資料不出門,隱私有保障;但各地模型仍能合力變聰明。

技術三:對抗性訓練(Adversarial Training)

類比:武術訓練不能只在舒適的道館練。讓學生和強大的對手對打,挨打多了,才能真的變強。

對抗性訓練就是:在訓練過程中刻意加入對抗性樣本(攻擊範例),讓模型見識過各種攻擊手法,提升對攻擊的抵抗力。

技術解決的風險代價
差分隱私隱私洩露模型準確率略降
聯邦學習隱私洩露、資料外流通訊成本、訓練較複雜
對抗性訓練對抗性攻擊訓練時間增加

2.3 歐盟 AI 法(EU AI Act):全球第一部 AI 法律

2024 年 3 月,歐洲議會正式通過《歐盟 AI 法(EU Artificial Intelligence Act)》,成為全球第一部全面性的 AI 法律。就像歐盟的 GDPR 改變了全球資料隱私標準,EU AI Act 也預計引領全球 AI 監管走向。

EU AI Act 的核心邏輯:風險越高,管得越嚴。把所有 AI 應用分成四個風險等級:

四級風險金字塔


       ╱ ╲
      ╱ 不 ╲         不可接受風險(Unacceptable Risk)
     ╱ 可 接 ╲        全面禁止
    ╱ 受 風 險 ╲
   ═════════════
  ╱             ╲
 ╱   高 風 險    ╲      高風險(High Risk)
╱                 ╲     嚴格監管
═══════════════════
╱   有限風險       ╲    有限風險(Limited Risk)
══════════════════════  透明度義務
╱   低/微小風險      ╲  低風險(Low/Minimal Risk)
══════════════════════  最少限制

各級詳細說明

風險等級監管態度典型應用範例
不可接受風險 Unacceptable Risk完全禁止政府的社會評分系統(如中國式信用評分)、即時生物辨識大規模監控、潛意識操控技術
高風險 High Risk嚴格規範,上市前需審查醫療診斷 AI、自駕車、徵信評分、司法輔助工具、關鍵基礎設施管理
有限風險 Limited Risk透明度義務(必須告知是 AI)聊天機器人(需告知用戶)、Deepfake 內容(需標示)
低/微小風險 Low/Minimal Risk自願遵守行為準則AI 垃圾郵件過濾、AI 推薦系統、AI 遊戲 NPC

考試重點:EU AI Act 的「不可接受風險」類別最常出題。記住:社會評分系統即時大規模生物辨識監控是明確禁止的。

考試重點:EU AI Act 於 2024 年通過,是全球第一部全面性 AI 法律,採「風險分級」監管方式。


2.4 美國 NIST AI 風險管理框架(NIST AI RMF)

美國採取的是比較「引導式」的方法,由**國家標準暨技術研究院(NIST)**於 2023 年發布 AI 風險管理框架(AI RMF),提供企業自願遵循的最佳實踐。

NIST AI RMF 四大支柱(Core Functions):

支柱英文核心問題主要活動
治理Govern我們的組織如何看待 AI 風險?建立 AI 風險文化、政策、責任分工
地圖Map這個 AI 系統有哪些風險?識別 AI 情境、利害關係人、潛在危害
量測Measure風險有多大?分析、評估、量化風險程度
管理Manage我們要怎麼處理這些風險?優先排序、處置、監控、改善

類比

  • Govern = 公司的「食安文化」——老闆重視,大家才會認真
  • Map = 檢查廚房裡哪些食材快過期、哪個步驟容易交叉汙染
  • Measure = 評估每個問題的嚴重程度(過期一天 vs. 過期一個月差很多)
  • Manage = 決定先處理最嚴重的問題,並持續追蹤

考試重點:NIST AI RMF 是美國發布的,是自願性框架(非強制法律),四大功能 Govern、Map、Measure、Manage


2.5 台灣 AI 政策現況

台灣目前沒有單一的「AI 法」,而是由各主管機關針對各自管轄領域發布指引。

發布機關政策文件主要對象
數位部公部門 AI 應用推動手冊政府機關、公務員
金管會金融業 AI 應用指引銀行、保險、證券業
經濟部製造業 AI 應用指引傳統製造業、工廠
行政院AI 基本法草案(研議中)全體產業(未來立法基礎)

台灣的監管策略可歸納為:

  1. 分業監管:各部會管各自領域,沒有單一 AI 主管機關
  2. 以指引先行:先發布不具法律效力的指引,待實務成熟後再立法
  3. 接軌國際:參考 EU AI Act 和 NIST AI RMF 的架構設計

考試重點:台灣目前沒有「AI 法」,但**「AI 基本法草案」正在研議中。金融業的 AI 指引由金管會**發布。


2.6 企業 AI 治理的五個面向與實施步驟

企業要真正做好 AI 治理,需要從五個面向系統性建立:

面向說明具體措施
1. 策略與政策企業 AI 的整體方向制定 AI 倫理準則、建立 AI 使用政策
2. 組織與文化誰來負責 AI 治理成立 AI 倫理委員會、指定 AI 負責人
3. 風險管理識別與控制 AI 風險進行 AI 風險評估、建立分級管理機制
4. 技術與工具用技術手段確保治理導入 XAI 工具、模型監控、偏見偵測
5. 透明與溝通對內外部利害關係人說明發布 AI 使用報告、公開 Model Card

企業建立 AI 治理的六步驟:

  1. 盤點現有 AI 應用——先搞清楚公司裡有哪些 AI 在用
  2. 進行風險分級——參考 EU AI Act 邏輯,評估每個 AI 的風險等級
  3. 建立政策框架——制定 AI 倫理準則和使用政策
  4. 設立治理機制——成立委員會或指定負責人
  5. 導入技術工具——偏見偵測、可解釋 AI、模型監控
  6. 持續監控改善——定期稽核,跟上法規變化

考試重點:企業 AI 治理不是一次性的工作,而是「持續循環」的過程——建立、監控、改善、再建立。


三、關鍵名詞中英對照

中文英文說明
資料偏見Data Bias訓練資料不平衡導致 AI 輸出歧視性結果
模型漂移Model Drift現實世界變化導致模型準確率下降
對抗性攻擊Adversarial Attacks刻意設計的輸入讓 AI 產生錯誤判斷
差分隱私Differential Privacy在資料加入雜訊保護個人隱私的技術
聯邦學習Federated Learning資料不移動、只分享模型更新的分散式訓練
對抗性訓練Adversarial Training以攻擊樣本訓練模型提升抵抗力
歐盟 AI 法EU AI Act2024年通過的全球第一部全面性 AI 法律
不可接受風險Unacceptable RiskEU AI Act 中完全禁止的 AI 應用類別
高風險High RiskEU AI Act 中需嚴格監管的 AI 應用類別
有限風險Limited RiskEU AI Act 中需履行透明度義務的類別
NIST AI RMFNIST AI Risk Management Framework美國自願性 AI 風險管理框架
治理GovernNIST AI RMF 第一支柱
地圖MapNIST AI RMF 第二支柱
量測MeasureNIST AI RMF 第三支柱
管理ManageNIST AI RMF 第四支柱
深偽技術DeepfakeAI 生成的以假亂真影音內容
AI 基本法AI Basic Act台灣研議中的 AI 基礎法律框架

四、考試重點提示

考試重點:EU AI Act 在 2024 年 3 月通過,是全球第一部全面性 AI 法律,採「風險分級」監管。

考試重點:EU AI Act 四級風險由高到低:不可接受 → 高風險 → 有限風險 → 低風險。「社會信用評分系統」屬於「不可接受風險」,直接禁止。

考試重點:NIST AI RMF 是美國自願性框架(不是法律),四大功能:Govern、Map、Measure、Manage

考試重點聯邦學習的核心特點是「原始資料不離開本地」,各端只分享模型更新(梯度/參數),非常適合醫療、金融等隱私敏感場景。

考試重點:台灣金融業 AI 指引由金管會發布;公部門 AI 推動手冊由數位部發布;整體 AI 基本法草案由行政院研議。

考試重點:模型漂移(Model Drift)分兩種:資料漂移(輸入分佈改變)和概念漂移(輸入輸出關係改變)。解法是持續監控 + 定期重訓。


隨堂小測驗

第 1 題 根據歐盟 AI Act,下列哪個 AI 應用屬於「不可接受風險」,應被完全禁止?

A. 醫院使用的癌症影像診斷 AI B. 政府建立的全民社會信用評分系統 C. 電商網站的商品推薦演算法 D. 聊天機器人客服系統

第 2 題 「聯邦學習(Federated Learning)」最主要解決的問題是什麼?

A. 加速深度學習模型的訓練速度 B. 在不共享原始資料的情況下,讓多方協同訓練 AI 模型 C. 讓 AI 模型能抵抗對抗性攻擊 D. 自動偵測並修正訓練資料中的偏見

第 3 題 一個電商平台的商品推薦 AI,上線半年後準確率明顯下降,原因是消費者行為因市場變化而改變。這個問題最可能是哪種 AI 風險?

A. 對抗性攻擊(Adversarial Attack) B. 資料偏見(Data Bias) C. 模型漂移(Model Drift) D. 隱私洩露(Privacy Breach)

第 4 題 NIST AI RMF 與歐盟 AI Act 的主要差異是什麼?

A. NIST AI RMF 是法律,EU AI Act 是自願性框架 B. NIST AI RMF 是美國的自願性框架,EU AI Act 是歐盟強制性法律 C. 兩者都是法律,但適用地區不同 D. 兩者都是自願性框架,沒有法律強制力

第 5 題 根據台灣現行政策,下列敘述何者正確?

A. 台灣已通過「AI 法」,由數位部統一主管 B. 台灣金融業 AI 指引由經濟部發布 C. 台灣採分業監管,金融業 AI 指引由金管會發布,AI 基本法草案仍在研議中 D. 台灣完全參照歐盟 AI Act,直接適用四級風險分類


解答與解析

題號答案解析
1BEU AI Act 明確禁止政府建立的社會信用評分系統,因其對公民進行全面性評分與控制,嚴重侵害基本人權。A(醫療診斷 AI)屬於「高風險」(嚴格監管但允許),C(推薦系統)和 D(聊天機器人)屬於「低風險」或「有限風險」。
2B聯邦學習的核心價值是「資料在地,模型共享」——各參與方的原始資料留在本地,只上傳模型更新(梯度),中央整合後再分發,實現多方協作且保護隱私。加速訓練(A)是分散式計算的功能;抵抗攻擊(C)是對抗性訓練;修正偏見(D)需要其他工具。
3C消費者行為改變 → 輸入資料分佈改變 → 模型準確率下降,這是「資料漂移(Data Drift)」,屬於模型漂移(Model Drift)的一種。資料偏見(B)是訓練時的問題,不是上線後準確率下降的描述。
4BNIST AI RMF(2023年發布)是美國聯邦機構發布的自願性最佳實踐框架,企業可自由選擇是否採用。EU AI Act(2024年通過)是歐盟的強制性法律,違反者面臨高額罰款(最高達全球年營業額的 7%)。
5C台灣目前沒有單一 AI 法,採分業監管:金融業由金管會負責(非經濟部),公部門由數位部指導,整體 AI 基本法草案由行政院研議中但尚未通過。台灣有參考 EU AI Act,但並非直接適用。