ANGELA JIAN
LOADING
回到課程總覽
第 49 篇 L12 總複習與模擬考

模擬考題特訓(二):生成式 AI 應用與規劃 25 題

Angela Jian
Angela Jian 簡琬庭
iPAS AI 應用規劃師 / AI Product Builder

說明

本模擬考卷對應 L12(生成式 AI 應用與規劃) 範圍,涵蓋以下主題:

  • 鑑別式 AI(Discriminative AI)vs. 生成式 AI(Generative AI)的技術原理與差異
  • 整合應用:自監督學習、資料增強、內容過濾、RLHF
  • No Code / Low Code 平台特性、優缺點與適用情境
  • 生成式 AI 工具(ChatGPT、DALL-E、Copilot)與 Prompt Engineering 技巧
  • 生成式 AI 導入規劃:評估維度、ROI、風險管理、幻覺現象與 RAG

每題皆為單選題,建議先獨立作答後再對照解析。


模擬考題 — 生成式 AI 應用與規劃

Q1. 鑑別式 AI(Discriminative AI)與生成式 AI(Generative AI)在數學建模上最根本的差異是:

  • (A) 鑑別式 AI 使用深度學習,生成式 AI 使用傳統機器學習
  • (B) 鑑別式 AI 學習條件機率 P(Y|X),生成式 AI 學習聯合分佈或資料分佈 P(X) / P(X,Y)
  • (C) 鑑別式 AI 只能處理文字,生成式 AI 只能處理影像
  • (D) 兩者使用相同的數學框架,差異僅在輸出層的設計

Q2. 生成對抗網路(Generative Adversarial Network, GAN)由哪兩個互相對抗的元件組成?

  • (A) 編碼器(Encoder)與解碼器(Decoder)
  • (B) 生成器(Generator)與鑑別器(Discriminator)
  • (C) 注意力層(Attention Layer)與前饋層(Feed-Forward Layer)
  • (D) 策略網路(Policy Network)與價值網路(Value Network)

Q3. 變分自編碼器(Variational Autoencoder, VAE)與標準自編碼器(Autoencoder)最大的差異在於:

  • (A) VAE 使用更多層的卷積操作
  • (B) VAE 在潛在空間(Latent Space)學習機率分佈(均值與變異數),使生成過程具有可控的隨機性
  • (C) VAE 訓練速度比標準自編碼器快十倍
  • (D) VAE 不需要解碼器(Decoder)即可生成新資料

Q4. 擴散模型(Diffusion Model)生成影像的核心原理是:

  • (A) 讓生成器與鑑別器互相競爭,逐步提升生成品質
  • (B) 學習將清晰影像逐步加入雜訊的正向過程,再訓練模型執行反向去雜訊還原
  • (C) 將影像壓縮至低維潛在空間後重建
  • (D) 使用自回歸(Autoregressive)方式逐像素生成

Q5. 下列哪種模型屬於「鑑別式 AI」?

  • (A) GPT-4(文字生成)
  • (B) Stable Diffusion(影像生成)
  • (C) BERT 用於情感分類(Sentiment Classification)
  • (D) MusicLM(音樂生成)

Q6. 自監督學習(Self-supervised Learning)的主要優勢是:

  • (A) 完全不需要任何資料即可訓練
  • (B) 利用資料本身的結構自動產生監督訊號,大幅降低對人工標記資料的依賴
  • (C) 訓練速度比監督學習快一千倍
  • (D) 只能應用於文字資料,不適用於影像

Q7. 在資料增強(Data Augmentation)的應用中,下列哪種做法最適合用於提升影像分類模型的泛化能力?

  • (A) 移除所有像素值低於 128 的圖片
  • (B) 對訓練影像隨機套用翻轉、旋轉、色彩抖動(Color Jitter)等變換
  • (C) 將所有訓練影像縮放到相同解析度後不做任何其他處理
  • (D) 以測試集影像替換部分訓練集影像

Q8. 生成式 AI 系統中的「內容過濾(Content Filtering)」機制主要目的是:

  • (A) 提升模型回應的生成速度
  • (B) 篩選並阻擋有害、不當或違反使用政策的輸入與輸出內容
  • (C) 將使用者查詢轉換為向量表示
  • (D) 壓縮模型體積以降低推論成本

Q9. RLHF(Reinforcement Learning from Human Feedback)在大型語言模型訓練中的作用是:

  • (A) 取代預訓練(Pre-training),直接從零訓練模型
  • (B) 讓模型學習從網路上爬取更多資料
  • (C) 透過人類偏好評分訓練獎勵模型,再以強化學習微調語言模型,使輸出更符合人類期望
  • (D) 自動生成大量合成訓練資料

Q10. 在大型語言模型的訓練流程中,「監督微調(Supervised Fine-Tuning, SFT)」通常發生在哪個階段?

  • (A) 預訓練之前
  • (B) 預訓練之後、RLHF 之前
  • (C) RLHF 之後
  • (D) 推論(Inference)階段

Q11. No Code 平台與 Low Code 平台的主要差異在於:

  • (A) No Code 只能用於行動 App 開發,Low Code 只能用於網頁開發
  • (B) No Code 完全透過視覺化介面操作、不需撰寫任何程式碼;Low Code 提供視覺化工具但仍需少量程式碼做客製化
  • (C) No Code 的效能必然優於 Low Code
  • (D) Low Code 比 No Code 更適合完全沒有 IT 背景的使用者

Q12. 企業選擇 No Code AI 平台時,下列哪項是最常見的限制?

  • (A) 無法連接外部資料庫
  • (B) 只支援英文介面
  • (C) 自訂彈性不足,難以實現高度客製化的業務邏輯或複雜模型調整
  • (D) 無法在雲端環境執行

Q13. 「供應商鎖定(Vendor Lock-in)」在 No Code / Low Code 平台的情境中是指:

  • (A) 平台供應商鎖定使用者的帳號,防止未授權存取
  • (B) 企業因深度依賴特定平台的專有格式與功能,難以在不大幅重建的情況下遷移至其他平台
  • (C) 平台限制每月可建立的工作流程數量
  • (D) 使用者必須繳交年費才能解鎖進階功能

Q14. 下列哪類使用場景最適合採用 No Code AI 平台?

  • (A) 需要自訂 Transformer 架構並從頭訓練數十億參數模型
  • (B) 中小企業快速建立客服機器人原型或簡單的影像分類應用
  • (C) 開發需要毫秒級推論的即時交易詐欺偵測系統
  • (D) 研究人員進行新型損失函數的實驗

Q15. 在評估 No Code / Low Code 平台時,「可觀測性(Observability)」指的是:

  • (A) 平台介面是否美觀易用
  • (B) 平台是否提供工具追蹤模型效能、錯誤率、資料漂移等運行指標
  • (C) 平台是否開放原始碼
  • (D) 平台是否支援多語系使用者介面

Q16. ChatGPT 的核心能力最主要來自以下哪種技術組合?

  • (A) 卷積神經網路(CNN)+ 支援向量機(SVM)
  • (B) 大型 Transformer 語言模型預訓練 + RLHF 對齊微調
  • (C) 圖神經網路(GNN)+ 強化學習
  • (D) 隱馬可夫模型(HMM)+ 決策樹

Q17. DALL-E 與 Stable Diffusion 同為影像生成模型,兩者最主要的差異是:

  • (A) DALL-E 是開放原始碼模型,Stable Diffusion 是閉源商業模型
  • (B) DALL-E 由 OpenAI 開發、以 API 形式提供服務;Stable Diffusion 是開放權重模型,可在本地端部署
  • (C) DALL-E 只能生成黑白影像,Stable Diffusion 支援全彩
  • (D) 兩者使用完全相同的模型架構,差異僅在訓練資料

Q18. Prompt Engineering 中「少樣本提示(Few-shot Prompting)」的定義是:

  • (A) 使用極少量資料對模型進行微調(Fine-tuning)
  • (B) 在提示詞中提供少數(通常 2–8 個)輸入輸出範例,引導模型依照範例格式回應
  • (C) 要求模型在回應中只使用少於 50 個字
  • (D) 使用少於三個關鍵字來查詢模型

Q19. 「思維鏈提示(Chain-of-Thought Prompting, CoT)」的主要效果是:

  • (A) 讓模型回應速度加快
  • (B) 引導模型逐步展示推理過程,顯著提升複雜數學或邏輯推理任務的準確率
  • (C) 自動將提示詞翻譯成模型的訓練語言
  • (D) 壓縮提示詞長度以節省 Token 費用

Q20. 在 Prompt Engineering 實務中,「角色設定(Role Prompting)」技巧是指:

  • (A) 要求模型列出所有可能的角色扮演場景
  • (B) 在提示詞開頭明確指定模型應扮演的身份(如「你是一位資深法律顧問」),以獲得更符合情境的回應
  • (C) 讓多個 AI 模型輪流回答同一問題
  • (D) 設定對話的最大輪數上限

Q21. 評估生成式 AI 系統品質時,下列哪項指標最適合衡量文字摘要的品質?

  • (A) 準確率(Accuracy)
  • (B) ROUGE 分數(Recall-Oriented Understudy for Gisting Evaluation)
  • (C) AUC-ROC 曲線面積
  • (D) F1 分數(適用於分類任務)

Q22. 企業在評估生成式 AI 導入的投資報酬率(ROI)時,下列哪項屬於「間接效益」?

  • (A) 使用 AI 工具後客服人力降低的直接人事成本節省
  • (B) 員工因 AI 輔助提升工作效率帶來的創新能量與員工滿意度提升
  • (C) 生成式 AI API 呼叫費用的減少
  • (D) 自動化流程取代後節省的加班費

Q23. 大型語言模型(LLM)的「幻覺(Hallucination)」現象是指:

  • (A) 模型處理速度過慢,使使用者產生等待的錯覺
  • (B) 模型生成流暢但事實錯誤、無中生有或捏造引用來源的內容
  • (C) 模型拒絕回答敏感問題
  • (D) 模型輸出格式與使用者要求不符

Q24. 「檢索增強生成(Retrieval-Augmented Generation, RAG)」主要用來解決大型語言模型的哪個問題?

  • (A) 推論速度過慢
  • (B) 訓練成本過高
  • (C) 知識截止日期(Knowledge Cutoff)與幻覺問題——透過即時檢索外部知識庫提供最新、有依據的內容
  • (D) 模型體積過大,無法在邊緣設備部署

Q25. 企業導入生成式 AI 時,「AI 風險管理」框架中「人為監督(Human-in-the-Loop)」機制的主要目的是:

  • (A) 強制要求每一筆 AI 輸出都由人工完整重寫
  • (B) 在關鍵決策節點引入人工審核,確保 AI 輸出不造成無法接受的損害,並維持問責性
  • (C) 取代自動化測試,以人工方式逐行檢查程式碼
  • (D) 讓使用者自行決定是否安裝 AI 系統

解答與解析

題號答案解析
Q1(B)鑑別式 AI 直接建模給定輸入 X 下標籤 Y 的條件機率 P(Y|X),用於分類與預測;生成式 AI 建模資料分佈 P(X) 或聯合分佈 P(X,Y),能從分佈中取樣生成新資料。這是兩者最根本的數學差異。
Q2(B)GAN 由 Ian Goodfellow 於 2014 年提出,核心是生成器(Generator)與鑑別器(Discriminator)的對抗訓練:生成器嘗試生成以假亂真的資料,鑑別器學習分辨真偽,兩者互相博弈提升。(A) 是 Autoencoder 的結構。
Q3(B)VAE 在潛在空間學習均值(μ)與變異數(σ²)的機率分佈,並透過重參數化技巧(Reparameterization Trick)進行取樣,使潛在空間具備連續性與可插值性,支援更可控的生成。標準 Autoencoder 僅學習確定性的壓縮向量。
Q4(B)擴散模型(如 DDPM)的訓練分兩個過程:正向擴散(Forward Process)逐步對清晰影像加入 Gaussian 雜訊;反向去噪(Reverse Process)訓練神經網路預測並去除每一步的雜訊,最終從純雜訊還原影像。
Q5(C)BERT 用於情感分類時,輸出的是「這段文字是正面/負面」的類別機率 P(Y|X),屬於鑑別式模型。GPT-4、Stable Diffusion、MusicLM 均為生成式 AI,目標是生成新內容。
Q6(B)自監督學習(如 BERT 的 Masked Language Modeling、GPT 的下一個 Token 預測)利用資料本身的結構自動構造監督訊號,不需人工標記,因此可利用大量未標記資料進行預訓練,是 LLM 崛起的關鍵技術。
Q7(B)隨機翻轉、旋轉、裁剪、色彩抖動等資料增強操作能讓模型學習到對各種圖像變換的不變性(Invariance),有效擴充訓練資料多樣性並降低過擬合風險。
Q8(B)內容過濾是生成式 AI 安全層(Safety Layer)的重要組成,透過分類模型或規則引擎檢測並攔截仇恨言論、有害指令、色情內容等不當輸入輸出,確保服務符合使用政策。
Q9(C)RLHF 流程:(1) 收集人類對模型輸出的偏好排名;(2) 訓練獎勵模型(Reward Model)預測人類偏好;(3) 以 PPO 等強化學習演算法最大化獎勵模型分數,微調語言模型。InstructGPT 和 ChatGPT 均採用此流程。
Q10(B)LLM 標準訓練流程:預訓練(大規模無監督學習)→ 監督微調 SFT(指令遵循資料)→ 獎勵模型訓練 → RLHF 強化學習對齊。SFT 在預訓練後進行,讓模型學會依照指令格式回應。
Q11(B)No Code 平台(如 Bubble、Zapier)以純視覺化拖拉操作為核心,目標使用者是完全無程式背景者;Low Code 平台(如 OutSystems、Power Apps)提供視覺化基礎但允許開發者插入程式碼做客製化延伸。
Q12(C)No Code AI 平台以預建模組為主,適合常見標準需求,但面對複雜業務邏輯、特殊資料格式或需要調整模型內部結構時,彈性嚴重受限,這是最普遍的使用障礙。
Q13(B)Vendor Lock-in 指企業的資料、工作流程、整合設定深度綁定於特定平台的專有格式,一旦供應商漲價、停止服務或功能不足,遷移成本極高,影響企業的技術自主性。
Q14(B)No Code AI 平台最適合低到中等複雜度、需要快速驗證的應用場景,如客服機器人、簡單分類工具的原型開發,技術門檻低、上線快。高複雜度或效能敏感的系統應採用自行開發。
Q15(B)可觀測性(Observability)指平台是否提供監控工具追蹤模型效能(如準確率變化)、錯誤率、延遲、資料漂移(Data Drift)等運行狀態,是評估平台成熟度的重要指標。
Q16(B)ChatGPT 基於 GPT 系列大型 Transformer 語言模型,先以大規模文字語料進行預訓練,再透過 RLHF 進行對齊微調,使其遵循指令、避免有害輸出、提供有用回應。
Q17(B)DALL-E 由 OpenAI 開發,以 API 形式提供(閉源);Stable Diffusion 由 Stability AI 發布,開放模型權重,使用者可下載在本地運行或進行微調,是兩者在開放程度上的核心差異。
Q18(B)Few-shot Prompting 在提示詞中提供少量(通常 2–8 個)輸入輸出配對範例,讓模型從範例中推斷任務格式與規則,無需更新模型參數。相較於 Zero-shot(無範例)能顯著提升任務完成品質。
Q19(B)Chain-of-Thought Prompting 在提示詞中加入「Let’s think step by step」或提供逐步推理的範例,引導模型展開中間推理步驟,在數學計算、多步邏輯推理任務上效果顯著優於直接要求輸出答案。
Q20(B)Role Prompting 透過在系統提示(System Prompt)或使用者提示開頭明確指定身份(如「你是一位擁有 20 年經驗的稅務律師」),使模型的回應風格、專業深度與語氣更符合該角色的期待。
Q21(B)ROUGE(Recall-Oriented Understudy for Gisting Evaluation)透過比對生成摘要與參考摘要之間的 N-gram 重疊率來評估摘要品質,是文字摘要(Summarization)和機器翻譯的標準評估指標。Accuracy 和 F1 用於分類任務。
Q22(B)間接效益難以直接量化,包含員工因 AI 輔助而釋放的創造力、士氣提升、決策品質改善等。(A)(C)(D) 均為可直接計算金額的直接成本節省。評估 ROI 時兩者都應納入。
Q23(B)LLM 幻覺是語言模型根據訓練時學到的統計模式生成看似合理但實際上錯誤的內容,如虛假的學術引用、錯誤的歷史事實或捏造的法條。幻覺問題是 LLM 在高風險場景應用的最大障礙之一。
Q24(C)RAG 架構在 LLM 生成回應前,先從外部知識庫(如向量資料庫)即時檢索相關文件,將其作為上下文一併輸入模型。這使模型能回答訓練截止日期後的新知識,並降低幻覺(因有原始資料可引用)。
Q25(B)Human-in-the-Loop 不要求人工逐筆審查所有輸出,而是在高風險或高影響力的決策節點(如醫療建議、法律判斷、財務核准)設置人工確認關卡,平衡效率與問責性,確保 AI 風險在可接受範圍內。