ANGELA JIAN
LOADING
回到課程總覽
第 2 篇 L11102 AI 基礎概念

AI 也需要交通規則?一次搞懂 AI 治理與負責任 AI

Angela Jian
Angela Jian 簡琬庭
iPAS AI 應用規劃師 / AI Product Builder

一、學習目標

讀完這篇文章,你將能夠:

  1. 解釋什麼是 AI 治理(AI Governance),以及它為什麼重要
  2. 列舉 AI 帶來的五大挑戰,並說明每個挑戰的實際影響
  3. 背出**負責任 AI(Responsible AI)**的六大原則,並舉例應用
  4. 認識企業實作 AI 治理的常用工具與方法(AI 倫理委員會、Model Card、LIME/SHAP、NIST AI RMF)

二、核心內容

2.1 AI 治理是什麼?

想像一下,城市剛發明了汽車。一開始大家隨意上路,沒有紅綠燈、沒有速限、沒有駕照——結果當然是一團混亂,事故頻傳。

AI 現在就處於這個「汽車剛發明」的階段。AI 治理(AI Governance) 就是替 AI 這輛高速列車建立「交通規則」:誰可以開、怎麼開、出了事誰負責。

考試重點:AI 治理的定義是「針對 AI 系統的開發、部署與使用,制定政策、規範、流程與監督機制,確保 AI 符合法律要求並與人類價值觀一致」。

AI 治理涵蓋三個層次:

層次類比內容
政府層次交通法規法律、法規、國家政策
產業層次汽車安全標準行業自律規範、技術標準
企業層次公司內部駕駛規則內部政策、倫理委員會、流程

2.2 AI 帶來的五大挑戰

挑戰一:資料隱私(Data Privacy)

你去醫院看病,醫院把你的病歷拿去訓練 AI——你同意了嗎?這就是資料隱私問題。

AI 需要大量資料,但資料往往包含個人敏感資訊。若管理不當,後果嚴重:

  • 個人資料外洩
  • 未經同意的資料使用
  • 違反 GDPR(歐盟一般資料保護規則)等法規

挑戰二:演算法偏見(Algorithmic Bias)

一個招募 AI 被訓練在「過去錄取的履歷」上——但過去的錄取可能本來就有性別偏見。結果 AI 學到了偏見,繼續歧視女性應徵者。垃圾進、垃圾出(Garbage In, Garbage Out)

偏見的來源:

  • 訓練資料偏差:資料本身就不平衡
  • 歷史偏見複製:過去的歧視被 AI 學起來
  • 代理變數問題:用郵遞區號預測信用,間接歧視特定族群

挑戰三:透明度不足(Lack of Transparency)

深度學習模型常被稱為「黑箱(Black Box)」——我們知道輸入、知道輸出,但不知道中間發生了什麼。

就像你問電腦「為什麼不核准我的貸款?」,它只回你「不核准」,卻說不出理由。這在醫療、司法等高風險場景中是嚴重問題。

挑戰四:深偽技術(Deepfake)

AI 可以生成以假亂真的影片、聲音、圖片。政治人物說了沒說過的話、名人出現在未曾拍過的廣告——深偽技術正在瓦解人類對眼見為憑的信任。

挑戰五:究責困難(Accountability Gap)

自駕車撞了人,是車主的錯?車廠的錯?AI 開發商的錯?還是決定讓 AI 上路的政府的錯?

AI 的決策鏈條複雜,出了事往往找不到明確的責任人。這個「究責空缺」是 AI 治理最棘手的問題之一。


2.3 負責任 AI 的六大原則

如果說 AI 治理是交通法規,那負責任 AI(Responsible AI) 就是每個駕駛人應有的駕駛道德——不只「合法」,還要「做個好人」。

微軟、Google、IBM 等科技巨頭都提出了自己的 Responsible AI 原則。iPAS 考試以以下六大原則為核心:

#原則英文白話說明生活類比
1公平性FairnessAI 不能歧視特定族群老師不能因為學生是左撇子就給低分
2透明性TransparencyAI 的決策要能被理解和解釋法官判決要附理由,不能只說「有罪」
3問責性Accountability出了問題要有人負責餐廳食物中毒,老闆不能說「是廚師的事」
4安全與穩健性Safety & RobustnessAI 要能抵抗攻擊,穩定運作飛機要通過各種極端天氣測試才能飛
5隱私與資料治理Privacy & Data Governance保護使用者資料醫生不能把你的病歷貼在佈告欄
6人類監督Human Oversight人類要能介入、控制、關閉 AI工廠設備都要有緊急停機開關

考試重點:六大原則的英文名稱經常出題。記憶口訣:「公透問安隱人」(公平、透明、問責、安全、隱私、人類監督)。


2.4 企業如何實作 AI 治理?

知道原則還不夠,企業要真正落地執行,需要具體工具和機制。

工具一:AI 倫理委員會(AI Ethics Committee)

就像公司有法務部門審合約,AI 倫理委員會負責審查 AI 專案是否符合倫理原則。成員通常跨部門:技術、法律、業務、HR,有時還有外部顧問。

功能:

  • 評估新 AI 專案的倫理風險
  • 制定 AI 使用政策
  • 監督 AI 系統上線後的表現

工具二:模型卡片(Model Card)

Model Card 是一份 AI 模型的「說明書」,就像藥品的仿單。它記錄:

  • 模型是用什麼資料訓練的
  • 在哪些場景下表現好、哪些場景下表現差
  • 已知的偏見和限制
  • 預期的使用方式

Google 率先推廣 Model Card,現在已成為業界最佳實踐。

工具三:可解釋 AI 工具(LIME / SHAP)

還記得黑箱問題嗎?這兩個工具就是用來「打開黑箱」的:

工具全名白話說明
LIMELocal Interpretable Model-agnostic Explanations「你的貸款被拒,是因為這三個因素最關鍵」——逐案解釋
SHAPSHapley Additive exPlanations用賽局理論算出每個特徵對結果的貢獻度

類比:LIME 就像醫生告訴你「你這次發燒,主要是因為扁桃腺發炎」;SHAP 就像把所有可能的病因都列出來,算出每個佔多少比重。

工具四:NIST AI 風險管理框架(NIST AI RMF)

由美國國家標準暨技術研究院(NIST)發布,提供企業管理 AI 風險的系統化框架,分為四大功能:治理(Govern)、地圖(Map)、量測(Measure)、管理(Manage)

NIST AI RMF 四大功能

  ┌─────────────┐
  │   GOVERN    │  ← 建立組織的 AI 風險文化與政策
  └──────┬──────┘

  ┌──────▼──────┐
  │     MAP     │  ← 識別 AI 系統的情境與風險
  └──────┬──────┘

  ┌──────▼──────┐
  │   MEASURE   │  ← 分析與量化風險
  └──────┬──────┘

  ┌──────▼──────┐
  │   MANAGE    │  ← 優先排序並處理風險
  └─────────────┘

考試重點:NIST AI RMF 的四大功能英文縮寫 GMMM(Govern、Map、Measure、Manage)。這個框架不是線性的,而是循環的——持續監控、持續改善。


三、關鍵名詞中英對照

中文英文說明
AI 治理AI Governance對 AI 系統制定規範與監督機制
負責任 AIResponsible AI符合倫理、安全、透明的 AI 開發原則
演算法偏見Algorithmic BiasAI 輸出結果對特定族群不公平
深偽技術DeepfakeAI 生成的以假亂真影音內容
黑箱Black Box內部決策過程不透明的 AI 模型
可解釋 AIExplainable AI (XAI)能讓人類理解 AI 決策的技術
模型卡片Model CardAI 模型的標準化說明文件
公平性FairnessAI 不歧視特定族群的原則
透明性TransparencyAI 決策可被理解與解釋的原則
問責性Accountability確保 AI 決策有明確責任歸屬的原則
人類監督Human Oversight人類能介入並控制 AI 的機制
LIMELocal Interpretable Model-agnostic Explanations逐案解釋 AI 決策的工具
SHAPSHapley Additive exPlanations用賽局理論量化特徵貢獻的工具
NIST AI RMFNIST AI Risk Management Framework美國 AI 風險管理框架

四、考試重點提示

考試重點:AI 治理的三個層次(政府、產業、企業)是常見選擇題。

考試重點:負責任 AI 六大原則是必考題。用口訣「公透問安隱人」記憶:平性、明性、責性、全與穩健性、私與資料治理、類監督。

考試重點:LIME 和 SHAP 都是「可解釋 AI」工具,但 LIME 是逐案解釋,SHAP 是用賽局理論計算貢獻度——常見混淆題。

考試重點:Model Card 的用途是「記錄 AI 模型的特性、限制與預期使用場景」,不是用來訓練 AI 的。

考試重點:NIST AI RMF 四大功能:Govern → Map → Measure → Manage,是循環框架,不是只跑一次。


隨堂小測驗

第 1 題 下列何者不屬於「負責任 AI」的六大原則?

A. 公平性(Fairness) B. 可解釋性(Explainability) C. 問責性(Accountability) D. 人類監督(Human Oversight)

第 2 題 某銀行使用 AI 審核貸款,但發現系統對特定族裔的拒貸率異常偏高,卻找不出原因。這個問題最主要涉及哪兩個 AI 挑戰?

A. 深偽技術與資料隱私 B. 演算法偏見與透明度不足 C. 究責困難與安全漏洞 D. 資料隱私與究責困難

第 3 題 LIME 工具的主要用途是什麼?

A. 偵測 AI 模型是否遭受對抗性攻擊 B. 針對單一預測案例提供可解釋的理由 C. 計算整個資料集每個特徵的全局重要性 D. 自動修正 AI 模型的偏見

第 4 題 「Model Card」在 AI 治理中扮演什麼角色?

A. 用來加速 AI 模型的訓練速度 B. 記錄 AI 模型特性、使用限制與已知偏見的說明文件 C. 儲存 AI 模型訓練用的原始資料 D. 評估 AI 是否通過政府法規審查的表單

第 5 題 NIST AI RMF 的四大功能,正確的順序與英文名稱是?

A. Map → Govern → Measure → Manage B. Govern → Map → Manage → Measure C. Govern → Map → Measure → Manage D. Map → Measure → Manage → Govern


解答與解析

題號答案解析
1B負責任 AI 六大原則為:公平性、透明性、問責性、安全與穩健性、隱私與資料治理、人類監督。「可解釋性(Explainability)」雖然是重要概念,但在六大原則中屬於「透明性」的一部分,不是獨立的第七項原則。
2B拒貸率偏高是「演算法偏見」問題;找不出原因則是「透明度不足(黑箱問題)」。這兩個問題經常同時出現,是 AI 金融應用的典型挑戰。
3BLIME(Local Interpretable Model-agnostic Explanations)是「逐案」解釋工具,針對單一預測提供本地解釋。C 選項描述的是 SHAP 的特性(全局特徵重要性)。
4BModel Card 是 Google 倡導的 AI 模型說明文件,內容包含模型用途、訓練資料、效能指標、已知偏見與限制。就像藥品仿單,讓使用者知道這個模型的特性和適用範圍。
5CNIST AI RMF 正確順序是 Govern → Map → Measure → Manage。Govern 是基礎(建立政策文化),然後 Map(識別風險情境)、Measure(量化分析風險)、Manage(處置風險)。