一、學習目標
讀完這篇文章,你將能夠:
- 解釋什麼是 AI 治理(AI Governance),以及它為什麼重要
- 列舉 AI 帶來的五大挑戰,並說明每個挑戰的實際影響
- 背出**負責任 AI(Responsible AI)**的六大原則,並舉例應用
- 認識企業實作 AI 治理的常用工具與方法(AI 倫理委員會、Model Card、LIME/SHAP、NIST AI RMF)
二、核心內容
2.1 AI 治理是什麼?
想像一下,城市剛發明了汽車。一開始大家隨意上路,沒有紅綠燈、沒有速限、沒有駕照——結果當然是一團混亂,事故頻傳。
AI 現在就處於這個「汽車剛發明」的階段。AI 治理(AI Governance) 就是替 AI 這輛高速列車建立「交通規則」:誰可以開、怎麼開、出了事誰負責。
考試重點:AI 治理的定義是「針對 AI 系統的開發、部署與使用,制定政策、規範、流程與監督機制,確保 AI 符合法律要求並與人類價值觀一致」。
AI 治理涵蓋三個層次:
| 層次 | 類比 | 內容 |
|---|---|---|
| 政府層次 | 交通法規 | 法律、法規、國家政策 |
| 產業層次 | 汽車安全標準 | 行業自律規範、技術標準 |
| 企業層次 | 公司內部駕駛規則 | 內部政策、倫理委員會、流程 |
2.2 AI 帶來的五大挑戰
挑戰一:資料隱私(Data Privacy)
你去醫院看病,醫院把你的病歷拿去訓練 AI——你同意了嗎?這就是資料隱私問題。
AI 需要大量資料,但資料往往包含個人敏感資訊。若管理不當,後果嚴重:
- 個人資料外洩
- 未經同意的資料使用
- 違反 GDPR(歐盟一般資料保護規則)等法規
挑戰二:演算法偏見(Algorithmic Bias)
一個招募 AI 被訓練在「過去錄取的履歷」上——但過去的錄取可能本來就有性別偏見。結果 AI 學到了偏見,繼續歧視女性應徵者。垃圾進、垃圾出(Garbage In, Garbage Out)。
偏見的來源:
- 訓練資料偏差:資料本身就不平衡
- 歷史偏見複製:過去的歧視被 AI 學起來
- 代理變數問題:用郵遞區號預測信用,間接歧視特定族群
挑戰三:透明度不足(Lack of Transparency)
深度學習模型常被稱為「黑箱(Black Box)」——我們知道輸入、知道輸出,但不知道中間發生了什麼。
就像你問電腦「為什麼不核准我的貸款?」,它只回你「不核准」,卻說不出理由。這在醫療、司法等高風險場景中是嚴重問題。
挑戰四:深偽技術(Deepfake)
AI 可以生成以假亂真的影片、聲音、圖片。政治人物說了沒說過的話、名人出現在未曾拍過的廣告——深偽技術正在瓦解人類對眼見為憑的信任。
挑戰五:究責困難(Accountability Gap)
自駕車撞了人,是車主的錯?車廠的錯?AI 開發商的錯?還是決定讓 AI 上路的政府的錯?
AI 的決策鏈條複雜,出了事往往找不到明確的責任人。這個「究責空缺」是 AI 治理最棘手的問題之一。
2.3 負責任 AI 的六大原則
如果說 AI 治理是交通法規,那負責任 AI(Responsible AI) 就是每個駕駛人應有的駕駛道德——不只「合法」,還要「做個好人」。
微軟、Google、IBM 等科技巨頭都提出了自己的 Responsible AI 原則。iPAS 考試以以下六大原則為核心:
| # | 原則 | 英文 | 白話說明 | 生活類比 |
|---|---|---|---|---|
| 1 | 公平性 | Fairness | AI 不能歧視特定族群 | 老師不能因為學生是左撇子就給低分 |
| 2 | 透明性 | Transparency | AI 的決策要能被理解和解釋 | 法官判決要附理由,不能只說「有罪」 |
| 3 | 問責性 | Accountability | 出了問題要有人負責 | 餐廳食物中毒,老闆不能說「是廚師的事」 |
| 4 | 安全與穩健性 | Safety & Robustness | AI 要能抵抗攻擊,穩定運作 | 飛機要通過各種極端天氣測試才能飛 |
| 5 | 隱私與資料治理 | Privacy & Data Governance | 保護使用者資料 | 醫生不能把你的病歷貼在佈告欄 |
| 6 | 人類監督 | Human Oversight | 人類要能介入、控制、關閉 AI | 工廠設備都要有緊急停機開關 |
考試重點:六大原則的英文名稱經常出題。記憶口訣:「公透問安隱人」(公平、透明、問責、安全、隱私、人類監督)。
2.4 企業如何實作 AI 治理?
知道原則還不夠,企業要真正落地執行,需要具體工具和機制。
工具一:AI 倫理委員會(AI Ethics Committee)
就像公司有法務部門審合約,AI 倫理委員會負責審查 AI 專案是否符合倫理原則。成員通常跨部門:技術、法律、業務、HR,有時還有外部顧問。
功能:
- 評估新 AI 專案的倫理風險
- 制定 AI 使用政策
- 監督 AI 系統上線後的表現
工具二:模型卡片(Model Card)
Model Card 是一份 AI 模型的「說明書」,就像藥品的仿單。它記錄:
- 模型是用什麼資料訓練的
- 在哪些場景下表現好、哪些場景下表現差
- 已知的偏見和限制
- 預期的使用方式
Google 率先推廣 Model Card,現在已成為業界最佳實踐。
工具三:可解釋 AI 工具(LIME / SHAP)
還記得黑箱問題嗎?這兩個工具就是用來「打開黑箱」的:
| 工具 | 全名 | 白話說明 |
|---|---|---|
| LIME | Local Interpretable Model-agnostic Explanations | 「你的貸款被拒,是因為這三個因素最關鍵」——逐案解釋 |
| SHAP | SHapley Additive exPlanations | 用賽局理論算出每個特徵對結果的貢獻度 |
類比:LIME 就像醫生告訴你「你這次發燒,主要是因為扁桃腺發炎」;SHAP 就像把所有可能的病因都列出來,算出每個佔多少比重。
工具四:NIST AI 風險管理框架(NIST AI RMF)
由美國國家標準暨技術研究院(NIST)發布,提供企業管理 AI 風險的系統化框架,分為四大功能:治理(Govern)、地圖(Map)、量測(Measure)、管理(Manage)。
NIST AI RMF 四大功能
┌─────────────┐
│ GOVERN │ ← 建立組織的 AI 風險文化與政策
└──────┬──────┘
│
┌──────▼──────┐
│ MAP │ ← 識別 AI 系統的情境與風險
└──────┬──────┘
│
┌──────▼──────┐
│ MEASURE │ ← 分析與量化風險
└──────┬──────┘
│
┌──────▼──────┐
│ MANAGE │ ← 優先排序並處理風險
└─────────────┘
考試重點:NIST AI RMF 的四大功能英文縮寫 GMMM(Govern、Map、Measure、Manage)。這個框架不是線性的,而是循環的——持續監控、持續改善。
三、關鍵名詞中英對照
| 中文 | 英文 | 說明 |
|---|---|---|
| AI 治理 | AI Governance | 對 AI 系統制定規範與監督機制 |
| 負責任 AI | Responsible AI | 符合倫理、安全、透明的 AI 開發原則 |
| 演算法偏見 | Algorithmic Bias | AI 輸出結果對特定族群不公平 |
| 深偽技術 | Deepfake | AI 生成的以假亂真影音內容 |
| 黑箱 | Black Box | 內部決策過程不透明的 AI 模型 |
| 可解釋 AI | Explainable AI (XAI) | 能讓人類理解 AI 決策的技術 |
| 模型卡片 | Model Card | AI 模型的標準化說明文件 |
| 公平性 | Fairness | AI 不歧視特定族群的原則 |
| 透明性 | Transparency | AI 決策可被理解與解釋的原則 |
| 問責性 | Accountability | 確保 AI 決策有明確責任歸屬的原則 |
| 人類監督 | Human Oversight | 人類能介入並控制 AI 的機制 |
| LIME | Local Interpretable Model-agnostic Explanations | 逐案解釋 AI 決策的工具 |
| SHAP | SHapley Additive exPlanations | 用賽局理論量化特徵貢獻的工具 |
| NIST AI RMF | NIST AI Risk Management Framework | 美國 AI 風險管理框架 |
四、考試重點提示
考試重點:AI 治理的三個層次(政府、產業、企業)是常見選擇題。
考試重點:負責任 AI 六大原則是必考題。用口訣「公透問安隱人」記憶:公平性、透明性、問責性、安全與穩健性、隱私與資料治理、人類監督。
考試重點:LIME 和 SHAP 都是「可解釋 AI」工具,但 LIME 是逐案解釋,SHAP 是用賽局理論計算貢獻度——常見混淆題。
考試重點:Model Card 的用途是「記錄 AI 模型的特性、限制與預期使用場景」,不是用來訓練 AI 的。
考試重點:NIST AI RMF 四大功能:Govern → Map → Measure → Manage,是循環框架,不是只跑一次。
第 1 題 下列何者不屬於「負責任 AI」的六大原則?
A. 公平性(Fairness) B. 可解釋性(Explainability) C. 問責性(Accountability) D. 人類監督(Human Oversight)
第 2 題 某銀行使用 AI 審核貸款,但發現系統對特定族裔的拒貸率異常偏高,卻找不出原因。這個問題最主要涉及哪兩個 AI 挑戰?
A. 深偽技術與資料隱私 B. 演算法偏見與透明度不足 C. 究責困難與安全漏洞 D. 資料隱私與究責困難
第 3 題 LIME 工具的主要用途是什麼?
A. 偵測 AI 模型是否遭受對抗性攻擊 B. 針對單一預測案例提供可解釋的理由 C. 計算整個資料集每個特徵的全局重要性 D. 自動修正 AI 模型的偏見
第 4 題 「Model Card」在 AI 治理中扮演什麼角色?
A. 用來加速 AI 模型的訓練速度 B. 記錄 AI 模型特性、使用限制與已知偏見的說明文件 C. 儲存 AI 模型訓練用的原始資料 D. 評估 AI 是否通過政府法規審查的表單
第 5 題 NIST AI RMF 的四大功能,正確的順序與英文名稱是?
A. Map → Govern → Measure → Manage B. Govern → Map → Manage → Measure C. Govern → Map → Measure → Manage D. Map → Measure → Manage → Govern
解答與解析
| 題號 | 答案 | 解析 |
|---|---|---|
| 1 | B | 負責任 AI 六大原則為:公平性、透明性、問責性、安全與穩健性、隱私與資料治理、人類監督。「可解釋性(Explainability)」雖然是重要概念,但在六大原則中屬於「透明性」的一部分,不是獨立的第七項原則。 |
| 2 | B | 拒貸率偏高是「演算法偏見」問題;找不出原因則是「透明度不足(黑箱問題)」。這兩個問題經常同時出現,是 AI 金融應用的典型挑戰。 |
| 3 | B | LIME(Local Interpretable Model-agnostic Explanations)是「逐案」解釋工具,針對單一預測提供本地解釋。C 選項描述的是 SHAP 的特性(全局特徵重要性)。 |
| 4 | B | Model Card 是 Google 倡導的 AI 模型說明文件,內容包含模型用途、訓練資料、效能指標、已知偏見與限制。就像藥品仿單,讓使用者知道這個模型的特性和適用範圍。 |
| 5 | C | NIST AI RMF 正確順序是 Govern → Map → Measure → Manage。Govern 是基礎(建立政策文化),然後 Map(識別風險情境)、Measure(量化分析風險)、Manage(處置風險)。 |