ANGELA JIAN
LOADING
回到課程總覽
第 44 篇 L12302 導入規劃進階

AI 專案管理:從需求定義到模型上線的完整指南

Angela Jian
Angela Jian 簡琬庭
iPAS AI 應用規劃師 / AI Product Builder

一、學習目標

完成本單元後,你將能夠:

  1. 說明 AI 專案與傳統軟體專案在本質上的四大差異
  2. 描述 AI 專案生命週期的四個核心階段及各階段的關鍵任務
  3. 辨識 AI 專案中的主要角色及其職責分工
  4. 解釋如何將敏捷(Agile)方法論調整應用於 AI 實驗型專案
  5. 列舉 AI 專案常見失敗原因並提出對應的預防策略

二、核心內容

1. AI 專案與傳統軟體專案有何不同?

許多組織在導入 AI 時,習慣套用傳統軟體開發(Software Development Life Cycle, SDLC)的思維,結果屢屢碰壁。根本原因在於:AI 專案的本質和傳統軟體專案有四個根本差異。

生活類比:傳統軟體開發像是「蓋房子」——你先畫好設計圖,按步驟施工,完工時一定知道房子長什麼樣。AI 專案更像是「培育一棵樹」——你知道大概想要什麼樣的樹,但實際結果取決於土壤、水分、陽光(即資料品質)、氣候(即運算資源),中間充滿不確定性,需要持續觀察與調整。

面向傳統軟體專案AI 專案
輸出確定性輸入相同,輸出必定相同(Deterministic)輸出為機率性(Non-deterministic),相同輸入可能有不同輸出
成功條件程式邏輯正確,需求功能實現模型指標(Metrics)達標,且指標本身需要提前定義清楚
瓶頸來源需求不清、技術複雜度資料品質、資料量、特徵工程、模型選擇
開發模式計畫導向(Plan-driven),可預測性高實驗導向(Experiment-driven),需要容忍失敗與迭代

考試重點:AI 專案的「非確定性輸出(Non-deterministic Output)」是最常考的特性。AI 不像傳統程式,不能保證每次產生一模一樣的結果,這直接影響測試方式與品質標準的定義。


2. AI 專案生命週期:四大階段

階段一:問題定義與範疇確認(Problem Definition & Scoping)

這是整個 AI 專案中最被低估、卻最重要的階段。在這個階段,你需要回答三個核心問題:

問題一:這個問題真的需要 AI 嗎?

AI 並非萬靈丹。以下情況通常不需要 AI:

  • 問題可以用規則(Rule-based)系統清楚解決
  • 資料量極少(通常少於數百筆難以訓練有效模型)
  • 預測錯誤的代價極高,且無法接受機率性輸出(如核電廠安全系統)

問題二:成功指標(Success Metrics)是什麼?

在啟動前必須定義清楚:技術指標(如準確率、F1 分數、AUC)與業務指標(如客服成本降低 30%、退貨率下降 15%)。兩者都需要,且業務指標優先。

問題三:利害關係人(Stakeholder)是否對齊?

  • 業務方(Business Stakeholder):關心 ROI 與業務影響
  • 技術方(Tech Team):關心可行性與技術架構
  • 法務/合規(Legal/Compliance):關心資料使用的合法性
  • 最終使用者(End User):關心易用性與信任感

考試重點:「問題定義不清」是 AI 專案最常見的失敗原因之一。在 iPAS 考試中,常考「導入 AI 前應優先確認哪些事項」,答案通常圍繞:業務問題定義、成功指標、資料可用性。


階段二:資料階段(Data Phase)

資料階段通常佔 AI 專案總工時的 60% 至 80%,是整個專案最耗時的部分,也是品質的根基。

生活類比:模型訓練就像廚師炒菜,演算法是廚師的廚藝,資料是食材。再厲害的廚師,拿到劣質食材,也做不出好菜。「Garbage in, garbage out」(垃圾進,垃圾出)是 AI 界的金科玉律。

資料階段包含以下四個子任務:

子任務說明常見工具/方法
資料盤點(Data Audit)確認現有資料的範圍、格式、品質、存放位置資料目錄(Data Catalog)、SQL 查詢
資料收集(Data Collection)從內部系統、外部來源或網路爬取取得所需資料爬蟲、API 串接、資料採購
資料清理(Data Cleaning)處理缺失值、重複值、異常值、格式不一致Pandas、Great Expectations
資料標注(Data Labeling)由人工或半自動方式為資料添加標籤(Label)Label Studio、Scale AI、Amazon Mechanical Turk

考試重點:資料標注(Data Labeling)是監督式學習(Supervised Learning)的必要步驟,品質直接決定模型上限。「資料品質差」是僅次於「問題定義不清」的第二大 AI 專案失敗原因。


階段三:模型開發(Model Development)

模型開發是最核心的技術階段,但它在整個專案中所佔的工時其實遠低於資料階段。

基準模型(Baseline Model):在投入複雜演算法前,先建立一個簡單的基準模型(如邏輯回歸、決策樹),用來確認資料管道是否正確運作,並作為後續改進的比較基準。

實驗追蹤(Experiment Tracking):AI 開發本質上是大量實驗——不同的特徵組合、不同的演算法、不同的超參數(Hyperparameter)。每次實驗的參數與結果都必須記錄,避免「不知道上次怎麼得到好結果」的窘境。

超參數調校(Hyperparameter Tuning):超參數是在訓練前由人工設定的參數(如學習率 Learning Rate、樹的深度),需要透過系統化搜尋(Grid Search、Random Search、Bayesian Optimization)找到最佳組合。

模型評估(Model Evaluation):根據任務類型選擇合適指標:

  • 分類任務:準確率(Accuracy)、精確率(Precision)、召回率(Recall)、F1 分數、AUC-ROC
  • 回歸任務:MAE、RMSE、R²
  • 業務指標:最終仍需對應到商業價值

階段四:部署與維運(Deployment & Monitoring)

模型訓練完成不等於專案完成。將模型安全地推上生產環境,並長期維持其效能,才是真正的挑戰。

A/B 測試(A/B Testing):將流量隨機分配給新舊模型,比較兩者在真實用戶行為下的表現差異,用統計顯著性來決定是否全面切換。

金絲雀部署(Canary Deployment):先將新模型僅對 1%~5% 的流量開放,觀察是否出現異常(如錯誤率上升、延遲增加),確認穩定後逐步擴大到 100%。名稱來自礦工過去用金絲雀(Canary)進礦坑偵測毒氣——金絲雀先受影響,礦工就知道危險了。

模型漂移監控(Model Drift Monitoring):模型在上線後效能往往會隨時間下降,原因有兩類:

  • 資料漂移(Data Drift):輸入資料的分布發生變化(如疫情改變了消費者行為)
  • 概念漂移(Concept Drift):輸入與輸出之間的關係改變(如市場偏好轉移)

重訓觸發條件(Retraining Triggers):設定明確的重訓時機,例如:

  • 定時重訓(每週/每月)
  • 指標下降觸發(準確率低於設定閾值時)
  • 資料量累積觸發(收集到足夠新標注資料時)

3. AI 專案的主要角色

角色英文職稱主要職責
資料科學家Data Scientist建立模型、特徵工程、實驗分析
機器學習工程師ML Engineer模型部署、MLOps 管道、效能優化
資料工程師Data Engineer資料管道、ETL 流程、資料倉儲
領域專家Domain Expert提供業務知識、協助資料標注、驗證模型輸出合理性
AI 專案經理AI Project Manager協調各方、管理時程、風險管理、利害關係人溝通

考試重點:「領域專家(Domain Expert)」的角色常被忽略,但在醫療、法律、金融等垂直領域中,缺乏領域專家的 AI 專案極易失敗——技術人員不懂業務邏輯,做出來的模型在現實場景中毫無用處。


4. 敏捷方法論在 AI 專案的應用

傳統的瀑布式開發(Waterfall)不適合 AI 專案,因為 AI 開發充滿不確定性,需要頻繁迭代。敏捷(Agile)更適合,但需要調整:

AI Sprint 的特殊考量

  • Sprint 目標不應承諾「達到 XX% 準確率」,而應承諾「完成 XX 個實驗並分析結果」
  • 失敗的實驗是有價值的——它排除了無效方向,應被視為進展而非浪費
  • 定期舉行「模型評審(Model Review)」,讓業務方參與評估模型輸出是否符合業務直覺
  • 資料準備工作需要在 Sprint 計畫時充分估算,否則容易低估工時

5. AI 專案常見失敗原因

失敗原因說明預防方法
問題定義不清不知道 AI 要解決什麼具體問題導入前先完成業務問題定義工作坊
資料品質差訓練資料含有大量錯誤、缺失或偏差資料盤點與品質評估列為前置必要步驟
不切實際的期望高層期待 AI 解決所有問題,立竿見影提前溝通 AI 的能力邊界與時程預期
缺乏領域專家純技術團隊不理解業務脈絡確保每個 AI 專案有對應領域專家持續參與
忽略部署挑戰模型準確率高,但無法整合進現有系統早期邀請 IT 基礎架構團隊參與評估

6. AI 專案常用工具

工具用途類別
MLflow實驗追蹤、模型版本管理、模型部署開源 MLOps 平台
Weights & Biases (W&B)實驗追蹤與視覺化、超參數搜尋商業/開源混合
DVC (Data Version Control)資料集版本控制,類似 Git 但用於資料開源資料管理
Apache Airflow資料管道(Pipeline)排程與編排開源工作流排程

三、關鍵名詞中英對照

中文英文說明
非確定性輸出Non-deterministic OutputAI 模型相同輸入可能產生不同輸出
問題定義Problem Definition / Scoping明確 AI 要解決的業務問題與成功標準
成功指標Success Metrics衡量 AI 專案是否成功的量化標準
利害關係人對齊Stakeholder Alignment確保各方對目標與期望達成共識
資料盤點Data Audit評估現有資料的品質、範圍、可用性
資料標注Data Labeling為訓練資料添加正確標籤的過程
基準模型Baseline Model作為改進比較基準的簡單模型
實驗追蹤Experiment Tracking記錄每次模型實驗的參數與結果
超參數Hyperparameter訓練前由人工設定、非模型學習得到的參數
超參數調校Hyperparameter Tuning系統化搜尋最佳超參數組合
A/B 測試A/B Testing同時對照測試新舊版本,用統計方式決定勝出者
金絲雀部署Canary Deployment將新版本先釋出給少量用戶,逐步擴大的部署策略
模型漂移Model Drift模型上線後效能隨時間衰退的現象
資料漂移Data Drift生產環境中輸入資料的分布發生變化
概念漂移Concept Drift輸入與輸出之間的真實關係發生變化
重訓觸發Retraining Trigger啟動模型重新訓練的預設條件
機器學習維運MLOps (ML Operations)將 ML 模型部署、監控、維護系統化的工程實踐

四、考試重點提示

考試重點:以下是 iPAS 人工智慧考試中與 AI 專案管理相關的高頻考點:

  1. AI 與傳統軟體的核心差異:「非確定性輸出」和「實驗導向開發」是最常考的兩點
  2. 資料階段佔比:AI 專案中資料準備(收集、清理、標注)通常佔總工時 60%~80%
  3. 失敗原因排序:問題定義不清 > 資料品質差 > 不切實際的期望 > 缺乏領域專家
  4. 金絲雀部署的意義:先開放小流量,觀察新模型穩定性,降低全面上線風險
  5. 模型漂移的兩種類型:資料漂移(Data Drift)與概念漂移(Concept Drift)要能區分
  6. 角色分工:資料科學家(建模)vs 機器學習工程師(部署)vs 資料工程師(資料管道)的職責差異是常考題
  7. 敏捷 + AI:Sprint 目標應以「完成實驗」而非「達成準確率」來衡量,因為 AI 結果難以保證

隨堂小測驗

Q1. 下列哪一項是 AI 專案與傳統軟體專案最根本的差異?

  • A. AI 專案一定需要更大的開發團隊
  • B. AI 專案的輸出具有非確定性(Non-deterministic),相同輸入可能產生不同結果
  • C. AI 專案不需要進行需求訪談
  • D. AI 專案的開發週期一定比傳統軟體更短

Q2. 在 AI 專案生命週期中,哪個階段通常佔用最多工時(約 60%~80%)?

  • A. 模型開發(Model Development)
  • B. 問題定義(Problem Definition)
  • C. 資料階段(Data Phase),包含收集、清理與標注
  • D. 部署與監控(Deployment & Monitoring)

Q3. 「金絲雀部署(Canary Deployment)」的主要目的是什麼?

  • A. 替換所有舊版模型,加速上線流程
  • B. 先對少量用戶開放新模型,觀察穩定性後再逐步擴大,降低風險
  • C. 在沒有真實用戶的測試環境中評估模型效能
  • D. 使用金融領域的語料訓練語言模型

Q4. 下列關於「模型漂移(Model Drift)」的描述,何者最為正確?

  • A. 模型漂移是指模型在訓練過程中過擬合的現象
  • B. 資料漂移(Data Drift)是指輸入資料分布改變;概念漂移(Concept Drift)是指輸入與輸出的真實關係改變
  • C. 模型漂移只發生在自然語言處理(NLP)任務中
  • D. 模型漂移可以透過增加模型參數量來完全避免

Q5. 在 AI 專案中,「領域專家(Domain Expert)」的主要貢獻是?

  • A. 負責編寫模型訓練程式碼
  • B. 管理雲端運算資源與 GPU 排程
  • C. 提供業務知識、協助資料標注,確保模型輸出符合現實業務邏輯
  • D. 負責 A/B 測試的統計分析

解答與解析

題號答案解析
Q1BAI 模型的輸出是機率性的(Non-deterministic),這是與傳統規則型程式最根本的差異,直接影響測試方式、品質標準與使用者期望管理。
Q2C資料階段(收集、清理、標注)通常佔 AI 專案總工時的 60%~80%,遠超模型開發本身。這也是「Garbage in, garbage out」原則強調資料品質優先的根本原因。
Q3B金絲雀部署(Canary Deployment)名稱來自礦工用金絲雀偵測毒氣的做法,核心概念是「先以小流量測試新版本,確認穩定後再全面切換」,以降低大規模上線風險。
Q4B資料漂移(Data Drift)是輸入資料本身的分布變化(如疫情改變消費行為);概念漂移(Concept Drift)是輸入與輸出間映射關係的改變(如市場偏好轉移)。兩者都會導致模型效能隨時間下降。
Q5C領域專家的核心價值在於將業務知識注入 AI 開發流程——協助定義問題、標注訓練資料、驗證模型輸出是否符合業務直覺。缺乏領域專家是 AI 專案常見失敗原因之一。