考前說明
本次模擬考涵蓋 L11(AI 基礎與資料) 及 L12(機器學習、生成式 AI、導入規劃) 全範圍,共 30 題,難度模擬正式 iPAS AI 應用規劃師認證考試。
考試建議:
- 限時 45 分鐘作答(實際考試約 1.5 分鐘/題)
- 先完整作答,再對照後方解析
- 錯誤題目務必追蹤至對應章節複習
第 1 題
某電商平台建置了一套 AI 推薦系統,該系統根據用戶的瀏覽紀錄與購買行為,為每位用戶產生個人化商品推薦清單。從 AI 分類的角度,此系統最屬於下列哪一類?
- (A) 強 AI(Strong AI / AGI)
- (B) 超 AI(Super AI / ASI)
- (C) 弱 AI(Weak AI / Narrow AI)
- (D) 通用 AI(General AI)
第 2 題
依據 Russell & Norvig 對 AI 的四象限分類,一個能夠像人類一樣「感覺」和「意識到」自身存在,且行為表現超越人類的 AI 系統,應歸屬於哪一象限?
- (A) 像人類一樣思考(Thinking Humanly)
- (B) 像人類一樣行動(Acting Humanly)
- (C) 理性思考(Thinking Rationally)
- (D) 理性行動(Acting Rationally)
第 3 題
Alan Turing 在 1950 年提出的「圖靈測試」(Turing Test),其核心判斷標準是什麼?
- (A) AI 能否在西洋棋中擊敗人類棋手
- (B) AI 能否通過標準化智力測驗並獲得高分
- (C) 人類測試者無法透過對話分辨對方是人還是機器
- (D) AI 能否獨立完成一篇高品質的學術論文
第 4 題
下列關於「負責任 AI」(Responsible AI)六大原則的敘述,何者有誤?
- (A) 公平性(Fairness)要求 AI 系統不應對不同群體產生歧視性結果
- (B) 可解釋性(Explainability)指 AI 的決策過程必須能讓使用者理解
- (C) 隱私性(Privacy)僅適用於個人健康資料,不涵蓋財務資料
- (D) 問責性(Accountability)要求明確界定 AI 決策的責任歸屬
第 5 題
歐盟 AI Act(EU AI Act)對下列哪一應用場景採取「直接禁止」而非「高風險監管」的態度?
- (A) 用於貸款審核的 AI 信用評分系統
- (B) 公共場所的即時生物辨識監控系統(Real-time biometric surveillance)
- (C) 用於求職者篩選的 AI 履歷評分系統
- (D) 學校入學資格審核的 AI 輔助決策系統
第 6 題
NIST AI Risk Management Framework(AI RMF)的四大核心功能,下列何者不在其中?
- (A) Govern(治理)
- (B) Map(對應)
- (C) Measure(量測)
- (D) Prevent(預防)
第 7 題
醫療院所將病患的血壓數值、血糖數值、心跳次數等檢測結果儲存於結構化資料庫中。下列哪一種資料類型與上述資料相同?
- (A) 病患在診療室說明症狀的語音錄音
- (B) 醫師手寫的診斷說明書照片
- (C) 每日量測的體重紀錄 Excel 表格
- (D) 患者對治療過程的心得部落格文章
第 8 題
資料管線(Data Pipeline)中,「特徵工程」(Feature Engineering)的主要目的是什麼?
- (A) 將資料從原始儲存位置搬移至雲端伺服器
- (B) 刪除資料集中所有含缺失值的資料列
- (C) 從原始資料中萃取、轉換或建立對模型預測更有用的輸入變數
- (D) 評估已訓練模型在測試集上的預測準確率
第 9 題
一家人才招募公司使用 AI 系統篩選履歷,發現系統持續給予女性求職者較低的評分。事後調查發現,訓練資料來自過去十年的錄取紀錄,而該公司歷史上男性員工佔多數。此現象最符合下列哪一種偏誤?
- (A) 確認偏誤(Confirmation Bias)
- (B) 歷史偏誤 / 社會偏誤(Historical / Societal Bias)
- (C) 測量偏誤(Measurement Bias)
- (D) 抽樣偏誤(Sampling Bias)
第 10 題
在資料隱私保護的技術手段中,「聯邦學習」(Federated Learning)的核心概念是什麼?
- (A) 將所有用戶資料加密後集中傳輸至中央伺服器訓練
- (B) 在各裝置本地訓練模型,僅上傳模型參數更新,原始資料不離開裝置
- (C) 對資料集中的個人識別欄位進行不可逆雜湊處理
- (D) 在資料中隨機添加統計噪音,以保護個別資料的隱私
第 11 題
GDPR(一般資料保護規則)賦予資料主體的「被遺忘權」(Right to Erasure)是指:
- (A) 資料主體有權查詢企業持有其哪些個人資料
- (B) 資料主體有權要求企業在特定條件下刪除其個人資料
- (C) 資料主體有權將其資料從一個服務業者轉移至另一個業者
- (D) 資料主體有權要求企業更正不正確的個人資料
第 12 題
下列關於監督式學習(Supervised Learning)與非監督式學習(Unsupervised Learning)的比較,何者正確?
- (A) 監督式學習不需要標籤資料,非監督式學習需要標籤資料
- (B) 監督式學習的目標是發現資料中的隱藏結構,非監督式學習的目標是預測結果
- (C) 監督式學習需要輸入與標籤成對的訓練資料,非監督式學習僅使用輸入資料
- (D) 兩者都必須事先定義分類的類別數目
第 13 題
支持向量機(Support Vector Machine, SVM)在分類問題中的核心目標是:
- (A) 找到使決策樹深度最小的特徵分割方式
- (B) 找到使不同類別間隔(Margin)最大化的超平面(Hyperplane)
- (C) 計算每個特徵對目標變數的資訊增益(Information Gain)
- (D) 透過集成多棵決策樹來降低預測變異數
第 14 題
某模型對 1000 筆測試資料的預測結果如下:
| 預測正例 | 預測負例 | |
|---|---|---|
| 實際正例 | 80(TP) | 20(FN) |
| 實際負例 | 40(FP) | 860(TN) |
此模型的 Precision(精確率)和 Recall(召回率)分別為?
- (A) Precision = 80%,Recall = 67%
- (B) Precision = 67%,Recall = 80%
- (C) Precision = 80%,Recall = 80%
- (D) Precision = 67%,Recall = 67%
第 15 題
下列哪一種方法「不是」解決模型過擬合(Overfitting)的有效手段?
- (A) 增加訓練資料量
- (B) 使用 Dropout 正規化技術
- (C) 提高模型的層數與參數數量
- (D) 使用 L2 正規化(Ridge Regularization)
第 16 題
卷積神經網路(CNN, Convolutional Neural Network)中,「池化層」(Pooling Layer)的主要功能是:
- (A) 將特徵圖轉換為一維向量,準備輸入全連接層
- (B) 透過卷積核(Kernel)提取局部空間特徵
- (C) 降低特徵圖的空間維度,減少計算量並提升平移不變性
- (D) 對輸入資料進行批次正規化(Batch Normalization)
第 17 題
Transformer 架構中的「自注意力機制」(Self-Attention Mechanism)解決了 RNN 的哪個主要缺陷?
- (A) RNN 無法處理非結構化文字資料
- (B) RNN 的序列處理方式難以平行化,且對長距離依賴關係的捕捉能力有限
- (C) RNN 無法進行多分類任務,只能進行二元分類
- (D) RNN 在訓練時必須使用強化學習,無法使用反向傳播
第 18 題
下列關於鑑別式 AI(Discriminative AI)與生成式 AI(Generative AI)的本質差異,何者描述最準確?
- (A) 鑑別式 AI 學習 P(X),生成式 AI 學習 P(Y|X)
- (B) 鑑別式 AI 學習 P(Y|X),生成式 AI 學習 P(X) 或 P(X,Y)
- (C) 兩者都學習 P(Y|X),差別在於模型架構不同
- (D) 鑑別式 AI 只能用於影像辨識,生成式 AI 只能用於文字生成
第 19 題
生成對抗網路(GAN, Generative Adversarial Network)由生成器(Generator)與鑑別器(Discriminator)組成。下列對其訓練過程的描述,何者正確?
- (A) 生成器負責判斷輸入資料是真實還是假造,鑑別器負責產生新資料
- (B) 兩者協同合作,共同最小化同一個損失函數
- (C) 生成器試圖生成以假亂真的資料,鑑別器試圖區分真實與生成資料,兩者對抗訓練
- (D) 生成器和鑑別器使用完全相同的神經網路架構
第 20 題
變分自編碼器(VAE, Variational Autoencoder)與標準自編碼器(Autoencoder)最關鍵的差異在於:
- (A) VAE 使用卷積層,標準自編碼器使用全連接層
- (B) VAE 的潛空間(Latent Space)學習機率分佈而非固定向量,使其能夠生成新樣本
- (C) VAE 不需要解碼器(Decoder),只有編碼器部分
- (D) 標準自編碼器能生成新內容,VAE 只能壓縮資料
第 21 題
大型語言模型(LLM)訓練的完整流程通常依序為:
- (A) 指令微調 → 預訓練 → 監督式微調 → RLHF
- (B) 預訓練 → 監督式微調(SFT)→ 指令微調 → RLHF
- (C) 預訓練 → RLHF → 監督式微調 → 指令微調
- (D) 預訓練 → 監督式微調(SFT)→ RLHF(含獎勵模型)→ 指令對齊
第 22 題
「差分隱私」(Differential Privacy)的核心機制是什麼?
- (A) 將個人資料中的識別欄位(如姓名、身分證字號)全部刪除
- (B) 在資料或模型輸出中加入經過數學校準的隨機噪音,使攻擊者無法推斷特定個人的資料
- (C) 將資料分散儲存在多個節點,避免單點洩漏
- (D) 使用同態加密(Homomorphic Encryption)允許在加密資料上直接計算
第 23 題
No-Code AI 工具相較於 Low-Code AI 工具,最顯著的特點是:
- (A) No-Code 工具只能用於影像辨識,Low-Code 工具可處理各種 AI 任務
- (B) No-Code 工具完全透過視覺化介面操作,不需要任何程式碼;Low-Code 工具提供視覺化框架但在關鍵環節允許程式碼客製化
- (C) No-Code 工具的模型準確率通常高於 Low-Code 工具
- (D) No-Code 工具適合大型企業,Low-Code 工具適合個人用戶
第 24 題
在提示工程(Prompt Engineering)中,「思維鏈提示」(Chain-of-Thought Prompting, CoT)的主要優勢是:
- (A) 透過提供多個輸出範例,幫助模型理解輸出的格式要求
- (B) 引導模型逐步展示推理過程,顯著提升複雜推理和數學問題的解答品質
- (C) 讓模型在生成答案前先查詢外部知識庫
- (D) 強制模型以角色扮演的方式回應,提升創意輸出品質
第 25 題
檢索增強生成(RAG, Retrieval-Augmented Generation)架構的主要優點是解決 LLM 的哪個核心問題?
- (A) LLM 生成速度過慢,需要透過 RAG 加速推論
- (B) LLM 的知識截止日期(Knowledge Cutoff)造成的知識過時問題,以及模型在特定領域知識不足導致的幻覺(Hallucination)
- (C) LLM 無法處理中文輸入,需要 RAG 進行語言轉換
- (D) LLM 的訓練成本過高,RAG 可以減少重新訓練的需求(此為次要優點,非核心問題)
第 26 題
某製造業公司考慮導入 AI 品質檢測系統,預期每年可節省人工成本 500 萬元、減少不良品損失 200 萬元,但系統建置費用為 800 萬元,每年維護費用 100 萬元。假設系統壽命 3 年,請問 3 年期間的 ROI(投資報酬率)最接近:
- (A) 約 50%
- (B) 約 88%
- (C) 約 125%
- (D) 約 175%
第 27 題
生成式 AI 的「幻覺問題」(Hallucination)是指:
- (A) AI 在生成影像時產生模糊或失焦的視覺效果
- (B) AI 模型自信地生成看似合理但實際上不正確或捏造的資訊
- (C) AI 系統因過度學習訓練資料而在新資料上表現欠佳
- (D) AI 生成的文字內容過於重複或缺乏創意
第 28 題
在金融業的 AI 應用中,下列哪一應用最可能被歸類為歐盟 AI Act 的「高風險」類別?
- (A) 自動回覆客戶常見問題的聊天機器人
- (B) 分析市場趨勢並提供參考意見的 AI 研究報告生成系統
- (C) 用於個人信用評分與貸款審核的 AI 決策系統
- (D) 為行銷部門自動生成廣告文案的生成式 AI 工具
第 29 題
擴散模型(Diffusion Model)的生成過程可以描述為:
- (A) 生成器與鑑別器對抗訓練,最終生成器能產生逼真的樣本
- (B) 編碼器將資料壓縮至潛空間,解碼器從潛空間的機率分佈中取樣還原
- (C) 先對資料逐步加入隨機噪音(Forward Process),再訓練模型學習逆向去噪過程(Reverse Process)以還原資料
- (D) 透過 Transformer 的自注意力機制,以自回歸(Autoregressive)方式逐步生成每個像素
第 30 題
某教育科技公司希望導入 AI 系統,為每位學生提供個人化的學習路徑規劃。在評估導入可行性時,下列哪一考量最能體現「倫理與合規」面向的核心問題?
- (A) AI 系統的推論速度是否足夠快,能即時回應學生查詢
- (B) 系統是否需要整合現有的學習管理系統(LMS)
- (C) AI 的學習路徑推薦是否可能因訓練資料的偏誤而對特定族群(如偏鄉學生、不同性別)產生不公平的建議,以及學生資料的隱私保護機制是否完善
- (D) 教師是否具備足夠的技術能力維護 AI 系統
解答與解析
答案速覽
| 題號 | 答案 | 題號 | 答案 | 題號 | 答案 |
|---|---|---|---|---|---|
| 1 | C | 11 | B | 21 | D |
| 2 | B | 12 | C | 22 | B |
| 3 | C | 13 | B | 23 | B |
| 4 | C | 14 | B | 24 | B |
| 5 | B | 15 | C | 25 | B |
| 6 | D | 16 | C | 26 | C |
| 7 | C | 17 | B | 27 | B |
| 8 | C | 18 | B | 28 | C |
| 9 | B | 19 | C | 29 | C |
| 10 | B | 20 | B | 30 | C |
逐題詳解
| 題號 | 答案 | 詳細解析 |
|---|---|---|
| 1 | C | 推薦系統是針對單一特定任務(商品推薦)設計的 AI,屬於「弱 AI / Narrow AI」。強 AI 具備跨領域通用智慧,目前尚未實現;超 AI 指超越人類的假設性 AI。 |
| 2 | B | 「像人類一樣行動」(Acting Humanly)的代表性測試就是圖靈測試。注意題目說「感覺與意識到」——這是描述像人類一樣的「表現」而非「推理方式」,且涵蓋超越人類的行為表現,定位在 Acting Humanly 的極致。 |
| 3 | C | 圖靈測試的判斷標準是:若評審在對話後無法分辨對方是人還是機器,則該機器通過測試。圖靈測試評判的是「行為表現」而非「內在思維」。 |
| 4 | C | 負責任 AI 的隱私性原則涵蓋所有個人資料,包括健康、財務、行為等各類資料,並非僅限健康資料。其他三項 (A)(B)(D) 的描述均正確。 |
| 5 | B | EU AI Act 明確將「公共場所即時生物辨識監控」列為不可接受風險(Unacceptable Risk)而直接禁止(有限例外)。(A)(C)(D) 均屬於高風險類別,需要嚴格合規但並未被禁止。 |
| 6 | D | NIST AI RMF 四大核心功能為:Govern(治理)、Map(對應)、Measure(量測)、Manage(管理)。「Prevent(預防)」不在四大功能中。 |
| 7 | C | 體重紀錄 Excel 表格是結構化資料(數值型態,有固定欄位)。語音錄音是非結構化資料,手寫說明書照片是非結構化資料,部落格文章是非結構化資料(文字)。 |
| 8 | C | 特徵工程的目的是從原始資料轉換或創造出對預測任務更有用的特徵(輸入變數),例如從日期欄位萃取「星期幾」、「是否為假日」等。(A) 是資料遷移,(B) 是缺失值處理,(D) 是模型評估。 |
| 9 | B | 訓練資料反映了歷史上的性別偏見(男性員工佔多數),導致 AI 複製並放大了這種歷史性歧視,屬於「歷史偏誤 / 社會偏誤」。抽樣偏誤指樣本不具代表性,但本題的核心問題是資料本身蘊含歷史歧視。 |
| 10 | B | 聯邦學習的核心是「資料不動,模型動」——各裝置在本地訓練,只上傳梯度或參數更新至中央聚合,原始資料不離開設備。(D) 描述的是差分隱私,(C) 描述的是假名化 / 雜湊化。 |
| 11 | B | 「被遺忘權」(Right to Erasure)= 要求刪除個人資料。(A) 是「查閱權」(Right of Access),(C) 是「可攜權」(Right to Data Portability),(D) 是「更正權」(Right to Rectification)。 |
| 12 | C | 監督式學習需要成對的 (X, Y) 訓練資料;非監督式學習只有 X,目標是發現隱藏結構(分群、降維等)。(A) 敘述相反,(B) 描述相反,(D) 只有部分非監督式方法(如 K-means)需要事先定義分群數。 |
| 13 | B | SVM 的核心是找到使不同類別之間的「間隔」(Margin)最大化的決策超平面。最大化間隔可提高泛化能力。(C) 描述的是決策樹的資訊增益,(D) 描述的是 Random Forest。 |
| 14 | B | Precision = TP / (TP + FP) = 80 / (80 + 40) = 80/120 ≈ 67%;Recall = TP / (TP + FN) = 80 / (80 + 20) = 80/100 = 80%。 |
| 15 | C | 「提高模型的層數與參數數量」會增加模型複雜度,讓模型更容易過擬合,是造成過擬合的原因而非解決方法。(A)(B)(D) 均是有效的正規化或防止過擬合手段。 |
| 16 | C | 池化層(如 Max Pooling)的主要功能是對特徵圖進行降採樣,縮小空間尺寸,從而減少參數量與計算量,同時增強模型對小幅平移的不變性。(B) 描述的是卷積層。 |
| 17 | B | RNN 的兩大問題:① 序列運算無法平行化(前一時間步完成才能算下一步),訓練速度慢;② 長距離依賴問題(梯度消失,難以記住很早之前的資訊)。Transformer 的自注意力機制同時解決了這兩個問題。 |
| 18 | B | 鑑別式 AI 建模條件機率 P(Y|X)(給定輸入 X 預測標籤 Y);生成式 AI 建模資料的聯合分佈 P(X, Y) 或邊際分佈 P(X),能夠生成新的資料樣本。 |
| 19 | C | GAN 是對抗訓練:生成器(G)生成假資料試圖騙過鑑別器;鑑別器(D)試圖區分真假資料。G 希望 D 分類錯,D 希望分類對——兩者目標相反(零和博弈)。 |
| 20 | B | VAE 強制潛空間(Latent Space)服從高斯分佈等連續機率分佈,而非離散固定向量。如此一來,從分佈中取樣即可生成新的有意義樣本,具有「生成能力」。標準 Autoencoder 的潛空間沒有此約束,無法可控地生成新樣本。 |
| 21 | D | LLM 完整訓練流程:預訓練(大規模無標籤文本自監督學習)→ 監督式微調 SFT(高品質問答對)→ RLHF(人類偏好回饋訓練獎勵模型,再用 PPO 等強化學習微調)→ 最終達到指令對齊。 |
| 22 | B | 差分隱私的核心機制是在查詢結果或模型參數中加入數學校準的隨機噪音(如 Laplace 噪音或 Gaussian 噪音),使得單一個體的資料是否存在於資料集中無法被統計推斷。(A) 是去識別化,(C) 是分散儲存,(D) 是同態加密。 |
| 23 | B | No-Code 工具(如 Google AutoML、Teachable Machine)完全透過視覺化拖拉操作,零程式碼;Low-Code 工具(如 Azure ML Designer、Hugging Face)提供視覺化框架但允許在必要時撰寫程式碼進行客製化。 |
| 24 | B | CoT 的精髓是「讓模型展示推理步驟」——例如加入「讓我們一步一步思考」(Let’s think step by step)後,模型在數學推理、邏輯題上的表現大幅提升。(A) 描述的是 Few-shot Prompting,(C) 描述的是 RAG,(D) 描述的是角色提示(Role Prompting)。 |
| 25 | B | RAG 的核心價值:① 突破知識截止日期,能查詢最新資訊;② 提供企業私有知識庫的查詢能力;③ 透過提供上下文文件,大幅減少 LLM 在特定領域產生幻覺的機率。 |
| 26 | C | 3 年總收益 = (500 + 200) × 3 = 2100 萬元;總成本 = 800 + 100 × 3 = 1100 萬元;淨利 = 2100 - 1100 = 1000 萬元;ROI = 1000 / 800 × 100% ≈ 125%。 |
| 27 | B | AI 幻覺(Hallucination)是指模型生成在語言上流暢、聽起來合理,但事實上錯誤或不存在的內容(如捏造研究引文、虛假統計數據)。這是目前 LLM 最重要的可信度挑戰之一。 |
| 28 | C | EU AI Act 明確將「信用評分與貸款審核 AI 決策系統」列為高風險(Annex III:信用評分領域),因其直接影響個人取得金融服務的機會。(A)(B)(D) 均屬低風險或有限風險。 |
| 29 | C | 擴散模型的訓練分兩個過程:Forward Process(前向過程)對原始資料逐步加入高斯噪音,直到完全變成隨機噪音;Reverse Process(逆向過程)訓練神經網路學習如何從噪音逐步去噪還原資料。推論時從純噪音開始,透過逆向去噪生成新內容(代表:Stable Diffusion、DALL-E 2)。 |
| 30 | C | 教育 AI 的核心倫理問題是:① 演算法公平性——AI 是否對偏鄉、少數族群、特定性別的學生產生系統性不公平的學習路徑建議;② 資料隱私——學生(多為未成年人)的學習行為資料需要特別保護。(A) 是技術效能問題,(B) 是系統整合問題,(D) 是人才培訓問題。 |
作答完畢:請統計你的答對題數。建議目標:25 題以上(83%)。如有錯誤,請回到對應章節複習後,再嘗試模擬考題(一)和(二)的錯誤題型。