iPAS 初級人工智慧應用師 題庫
共 1000 題 — L11 基礎 AI 概念 / L12 生成式 AI 應用 / 綜合模擬
Tesla 的自動駕駛系統在訓練神經網路模型時,需要同時處理數百萬張影像。哪項技術的普及是深度學習得以在此類大規模任務上爆發成長的最關鍵因素?
深度學習需要對龐大矩陣進行大量乘法運算。GPU 擁有數千個小型核心,可同時平行處理這些運算,速度遠超 CPU 的序列架構。這正是深度學習能從理論走向實用的核心推力。雲端儲存與頻寬雖重要,但不是訓練速度的決定性瓶頸。
Amazon 的推薦系統會記錄你過去的瀏覽與購買紀錄,並根據這些歷史行為預測你下次可能購買的商品。這種 AI 系統最符合哪種分類?
有限記憶型 AI 的核心特徵是能夠儲存並利用過去的資料(例如歷史購買記錄)來優化當前決策,但其記憶並非永久累積,而是有特定的時間窗口或範圍。反應型 AI 完全不使用歷史資料,AGI 與自我感知 AI 目前尚未實現。
醫院影像科的 AI 系統需要在 MRI 腦部掃描中,精確標記出每個像素屬於腫瘤、正常腦組織或背景,實現像素級的語意分割。下列哪種架構最適合此任務?
U-Net 專為醫學影像分割設計,其「U 型」架構包含收縮路徑(編碼器)擷取語意特徵,以及擴張路徑(解碼器)還原空間解析度,並透過跳躍連接保留細節,最終輸出與輸入同尺寸的像素級分割圖。ResNet 和 YOLO 不輸出像素級結果,GAN 則用於生成而非分割。
工廠的感測器收集到溫度、壓力、震動等數值,但各感測器的量測範圍差異極大(溫度 0-500°C,壓力 0-10 bar)。在資料預處理的「轉換(Transform)」階段,應優先採用哪項技術讓這些特徵可以公平比較?
特徵正規化(如 Min-Max Scaling 或 Z-score Standardization)屬於資料轉換步驟,目的是消除各特徵因量綱不同造成的影響。若不正規化,量值大的特徵(如溫度)會在模型訓練中佔據主導地位,導致偏差。去重屬於清洗階段,標記屬於標註階段,資料分割是訓練準備階段。
關於 GPT 系列大型語言模型的架構,下列哪項敘述是錯誤的?
這是錯誤敘述。GPT 採用的是 Decoder-only 架構,以單向(從左到右)的方式生成文字。Encoder-only 架構是 BERT 的特徵,BERT 能雙向理解整個句子的語境。GPT 的自回歸生成(Autoregressive)、基於 Transformer、單向注意力等敘述均正確。
西洋棋程式 AlphaZero 在評估棋局後,會從所有合法走法中選擇勝率最高的一步。這種行為模式最符合 AI 系統的哪種理性定義?
理性行動(Acting Rationally)定義的 AI 代理人會感知環境、評估可能結果,並選擇能最大化預期效用的行動。AlphaZero 選擇勝率最高的走法,正是這種「在各種情境下選擇最佳行動」的理性代理人行為,而不需要其過程模擬人腦思考。
一間遊戲公司想用 AI 大量生成遊戲場景圖,要求生成品質穩定且不同批次之間風格一致。比較 Diffusion Model 與 GAN,哪項是選擇 Diffusion Model 的主要優勢?
GAN 的訓練過程需要同時博弈生成器與判別器,容易發生「模式崩潰(Mode Collapse)」,導致只生成少數幾種重複的輸出。Diffusion Model 透過逐步加噪再去噪的過程訓練,穩定性顯著更高,生成結果多樣且品質一致。代價是推論速度較慢,需要多步迭代。
根據 EU AI Act 對「不可接受風險(Unacceptable Risk)」的定義,下列哪種 AI 應用場景屬於被明確禁止的類別?
EU AI Act 明確將「由公共機構或以其名義實施的社會評分系統」列為不可接受風險,予以全面禁止。此類系統大規模評判公民行為並給予差別待遇,嚴重侵害基本人權與尊嚴。貸款審核、醫療輔助屬於高風險類別(需符合嚴格規範但非禁止),商品推薦屬於低風險。
一個電商資料集包含數百個描述商品的特徵欄位,導致模型訓練緩慢且難以視覺化分析。資料科學家決定使用 PCA(主成分分析),其核心目的是什麼?
PCA(Principal Component Analysis)的核心目標是降維。它找出資料中變異量最大的方向(主成分),將高維資料投影到低維空間,同時盡量保留原始資訊。這樣可以加速模型訓練、方便視覺化,並減輕維度詛咒(Curse of Dimensionality)。
一個用於招聘篩選的 AI 系統被發現對特定族群的應聘者評分系統性偏低。調查發現這並非程式錯誤,而是訓練資料本身反映了歷史上的不平等。關於 AI 偏誤的根源,下列敘述最正確的是?
AI 偏誤的來源是多方面的:訓練資料可能反映歷史偏見(如過去的招聘資料多偏好特定族群),而模型的設計選擇(如選用哪些特徵、如何定義目標函數)也會引入或放大偏誤。單純增加資料量若資料本身有偏,只會放大偏誤。解決偏誤需要同時審視資料品質與模型設計。
一家醫療新創公司擁有少量已由醫生標記的病例,以及大量尚未標記的病歷文字。他們希望訓練一個疾病分類模型以充分利用這兩類資料。最適合的機器學習範式是?
半監督學習正是為了解決「有標記資料稀缺、無標記資料豐富」的場景設計的。它先用少量標記資料學習基礎,再利用無標記資料的分佈結構來改善模型邊界,常見技術包括 Self-Training 和 Label Propagation。醫療標記成本高昂,半監督學習是最具成本效益的選擇。
一家銀行的信貸部門需要向監管機構解釋:AI 模型拒絕某客戶貸款時,哪些因素影響最大?下列哪種工具最能回答「每個特徵對這次預測貢獻了多少」的問題?
SHAP 基於賽局理論的 Shapley 值,能為每個特徵計算出對該次預測的正負貢獻量。例如,它可以告訴你「負債收入比過高讓此申請人的通過概率降低了 30%」。這種個別樣本層級的解釋能力(Local Explainability)是混淆矩陣和 ROC 曲線(整體性能指標)所不具備的。
一家醫院計畫部署 AI 系統輔助醫生進行癌症診斷。倫理委員會堅持要求保留「人類監督機制」,即醫生必須審核每一份 AI 的建議。這項要求最主要的理由是什麼?
對於癌症診斷等高風險任務,AI 模型可能出現錯誤(如幻覺、統計偏誤、罕見案例失誤)。人類監督確保在 AI 出錯時有能力介入、糾正,並維持道德與法律上的問責性。這是負責任 AI 部署的核心原則之一,尤其在攸關生命的場景中不可或缺。
一家電信公司部署了 ChatGPT 作為客服機器人,處理帳單糾紛。上線後發現機器人有時會「自信地」告知客戶根本不存在的優惠方案。這個問題在 AI 領域有一個專有名詞,指的是?
大型語言模型的「幻覺(Hallucination)」是指模型生成的內容在語言上流暢、語氣自信,但在事實上是錯誤或捏造的。這是 LLM 用於客服的主要風險之一,可能導致客戶根據錯誤資訊做出決定,造成商業與法律糾紛。減緩方法包括 RAG(檢索增強生成)和 RLHF。
語音助理(如 Siri、Google Assistant)需要處理語音輸入,其中語音信號是具有時間先後順序的序列資料。下列哪種模型架構最適合處理這種時序依賴的任務?
RNN(Recurrent Neural Network)及其改良版 LSTM(Long Short-Term Memory)的設計核心是處理序列資料,因為它們有「記憶」機制,能將前一時間步的資訊傳遞到下一步,捕捉語音、文字等序列中的時序依賴關係。LSTM 特別解決了 RNN 的梯度消失問題,適合較長的語音序列。
1980 年代的醫療診斷系統 MYCIN 將「人類醫生的臨床知識」明確地編寫成 IF-THEN 規則存入知識庫,再由獨立的推理引擎執行這些規則進行診斷。這種「知識與推理分離」的架構代表了哪個 AI 發展時期的主流典範?
將知識庫(domain knowledge)與推理引擎(inference engine)明確分離,是 1980 年代專家系統的標誌性架構設計。這種方法的優點是知識可被解釋和修改,缺點是知識獲取(Knowledge Acquisition)瓶頸以及難以處理不確定性,最終讓位給資料驅動的機器學習方法。
研究人員正在開發一種 AI 系統,希望它能理解人類在溝通時的信念、意圖與情緒狀態,例如識別對方是在開玩笑還是認真,並據此調整回應。這種 AI 需要具備什麼能力,屬於哪種類型?
「理論心智(Theory of Mind)」是心理學概念,指理解他人有不同於自身的信念、慾望和意圖的能力。理論心智 AI 需要仰賴情感計算(Affective Computing)技術,識別情緒狀態並推理對方的心理,這遠超有限記憶型 AI 的能力範疇。目前此類 AI 仍在研究階段。
一個智慧城市平台需要讓 AI 系統「理解」不同概念之間的語意關係,例如知道「醫院」是一種「醫療設施」,而「醫療設施」屬於「公共服務」。哪種技術框架最適合建立這種結構化的知識表達?
認知表徵系統(Cognitive Representation System)需要以形式化方式描述概念、屬性及其相互關係,這正是 Ontology(本體論)與 Knowledge Graph(知識圖譜)的專長。Ontology 定義類別與關係的規則,Knowledge Graph 儲存具體的實體與關係三元組,兩者結合能賦予 AI 對世界的結構化理解。
AI 的四大目標中,「像人類思考(Thinking Humanly)」最容易與哪個概念混淆?兩者之間的關鍵區別是什麼?
「像人類思考」的目標是讓機器的內部推理過程模仿人類思維,而認知建模(Cognitive Modeling)同樣試圖用計算模型重現人腦的神經元連結和認知機制(如記憶、注意力)。兩者都以「人腦運作方式」為參照,容易混淆。關鍵區別在於:像人類思考是 AI 的目標定義,認知建模是認知科學的研究方法。
符號 AI(Symbolic AI)的典型代表是邏輯推理系統和專家系統。下列哪項特徵不屬於符號 AI 的核心特性?
具有隱藏層(Hidden Layers)的結構是類神經網路(Neural Networks / Connectionist AI)的特徵,而非符號 AI。符號 AI 以人類可讀的符號、規則、邏輯語句表達知識,其推理過程完全透明可解釋。隱藏層的存在使得神經網路成為「黑盒子」,這與符號 AI 的核心理念相悖。
一個為零售業訓練的銷售預測模型,在疫情期間消費行為劇烈改變後,預測準確率從 90% 急劇下降至 60%。這種現象在 MLOps 中稱為什麼,主要風險是什麼?
模型漂移(Model Drift)是指部署後的 AI 模型因為現實世界的資料分佈發生變化(概念漂移或資料漂移),導致預測效能隨時間退化的現象。疫情改變了消費行為模式,使得原本學習到的規律失效。解決方法是建立持續監控機制,並定期以新資料重新訓練模型。
一位數據分析師想要了解在房價預測模型中,「地段」、「房齡」和「面積」這三個特徵分別對某棟具體房屋的預測價格貢獻了多少(正向或負向)。哪種工具最適合回答這個問題?
SHAP 值能為單個預測提供特徵層級的解釋。對於每個輸入樣本,SHAP 計算每個特徵相對於基準預測的貢獻量,例如「地段因素使這棟房子的預測價格增加了 50 萬元,但房齡使其降低了 20 萬元」。這種個體可解釋性(Local Interpretability)是精確率-召回率曲線和交叉驗證所無法提供的。
研究人員希望建立一個模型,不僅能生成新的人臉圖像,還能在「年齡」和「表情」等語意維度上對潛在空間進行連續插值(例如讓一張臉逐漸變老)。哪種生成模型最適合這個需求?
VAE(Variational Autoencoder)的核心設計是學習一個平滑且有語意結構的潛在空間(Latent Space),每個輸入被編碼為潛在空間中的機率分佈。這使得在潛在空間中進行插值成為可能,例如從「年輕笑臉」的潛在向量平滑移動到「年老嚴肅臉」的潛在向量,並在途中生成連貫的中間狀態。
一家金融科技公司發現線上部署的信用評分 AI 每次更新後行為略有不同,且在客訴時無法提供模型的歷史決策依據。為解決這個可追責性問題,最應優先導入什麼機制?
當 AI 輸出不一致且無法解釋時,問題根源在於缺乏版本管理與文件化。模型卡(Model Card)是記錄模型版本、訓練資料、效能指標、已知限制的標準文件;版本控管確保每次部署的模型可以被精確追溯和回滾。這兩者共同建立可稽核(Auditability)的 AI 系統,是負責任 AI 的基本要求。
一家半導體廠商想用 AI 監控生產線,偵測罕見的設備異常,但這些異常發生頻率太低,難以收集足夠的標記樣本。哪種模型架構最適合這個「無需標記資料」的異常偵測場景?
Autoencoder 先學習用少量神經元壓縮「正常狀態」的資料特徵,再重建原始資料。當輸入異常資料時,模型無法有效重建,導致重建誤差(Reconstruction Error)顯著升高,即可判定為異常。這種方法不需要異常樣本的標記,是工業異常偵測的經典無監督方法。
在半監督學習中,研究人員想讓模型對同一筆未標記資料的不同擾動版本(如加入噪聲、隨機遮蔽)產生一致的預測輸出,以此作為學習信號。這種技術稱為什麼?
一致性訓練(Consistency Training)是半監督學習的核心技術之一。其原理是:對於同一筆無標記資料,無論施加何種合理的擾動(如 Dropout、資料增強),模型的預測應保持一致。這個「一致性」約束提供了學習信號,讓模型能從無標記資料中學習。MixMatch 和 FixMatch 等演算法都採用此技術。
一家醫院想讓 AI 模型在學習患者資料時,即使有攻擊者拿到模型,也無法推斷出任何個別患者的具體資訊。差分隱私(Differential Privacy)最適合在哪個階段套用以達成此目標?
差分隱私(Differential Privacy)的核心是在模型訓練過程中(通常在梯度更新時)加入數學上可量化的噪聲,確保訓練後的模型對任何單一資料點的存在與否不敏感,從而防止成員推理攻擊(Membership Inference Attack)。這是保護訓練資料隱私最有效的技術手段,在醫療、金融等敏感領域尤為重要。
GPT 類模型在初次訓練完成後,往往會生成不安全、有偏見或不符合人類價值觀的內容。OpenAI 採用哪種對齊技術使 ChatGPT 的回應更符合人類期望,同時減少幻覺和有害輸出?
RLHF(Reinforcement Learning from Human Feedback)是 ChatGPT 的關鍵對齊技術,分三步驟:① 預訓練語言模型;② 收集人類標注員對不同回應的偏好排名,訓練獎勵模型(Reward Model);③ 用強化學習(PPO 演算法)以獎勵模型的評分為信號,微調語言模型。這個過程有效減少了幻覺和有害輸出。
根據歐洲銀行監管局(EBA)及相關金融 AI 指引,銀行部署信用評分 AI 時,必須實作哪項核心能力以滿足監管要求?
金融監管機構要求 AI 信貸決策具備可解釋性(Explainability)和可稽核性(Auditability)。銀行必須能向申請人說明拒貸原因(合理說明),並保存每次決策的輸入、輸出及模型版本記錄(稽核記錄),以便監管單位事後審查。這不僅是技術要求,也是法律義務(如 GDPR 的解釋權條款)。
一家 AI 新創公司從網路爬取了大量文字資料作為模型訓練集,但資料來源是否涉及版權或隱私問題尚不明確。在資料準備的最初階段,應優先採取什麼行動?
當資料來源的合法性不確定時,法規合規與資料正當性審查必須優先於任何技術操作。使用未授權資料訓練模型可能違反著作權法(如近期多起針對 AI 公司的訴訟)、GDPR 等隱私法規。事後補救的成本遠高於事前審查,且可能面臨需要「取消學習(Machine Unlearning)」的技術難題。
在機器學習的模型分類中,哪種模型明確對輸入特徵 X 和輸出標籤 Y 的聯合機率分佈 P(X, Y) 進行建模,並能用來生成新的資料樣本?
生成式模型(Generative Model)的核心是學習資料的完整分佈 P(X, Y) 或 P(X),這使得它能夠從學習到的分佈中採樣,生成全新的資料。VAE、GAN、Diffusion Model 都是生成式模型的代表。相對地,判別式模型(如 Logistic Regression、SVM)只建模條件機率 P(Y|X),無法生成新資料。
一條汽車組裝生產線想要監控機器設備的運作狀態,但正常運作的資料很多,而故障資料極為罕見,根本無法收集足夠的故障樣本進行標記。下列哪種方法最適合這個純無監督的異常監控場景?
Autoencoder 在無監督場景下表現突出:只需用大量正常運作資料訓練,使其學會壓縮並重建正常狀態。當異常資料(故障信號)被輸入時,Autoencoder 無法有效重建,產生高重建誤差,觸發異常警報。這個方法完全不需要異常樣本的標記,非常適合工業場景中「正常多、異常少」的特性。
一家跨國公司的 NLP 招聘篩選系統被發現在處理非英語母語者的履歷時存在系統性偏見。資料科學團隊想從訓練資料層面減少這種偏見,最有效的策略是什麼?
NLP 模型的偏見很大程度上來自訓練資料的不均衡。若訓練資料主要包含特定語言或文化背景的文字,模型就會對其他族群表現較差。解決方法是擴大並平衡訓練語料,確保各語言、文化、族群的資料都有充分且均等的代表性。這是從根本解決資料偏見的方法。
一家醫療集團的各分院希望共同訓練一個疾病預測模型,但出於患者隱私保護法規,每家醫院的資料不能離開院內伺服器。他們決定採用聯邦學習(Federated Learning)。下列哪項描述不是聯邦學習的特徵?
聯邦學習的核心特徵恰恰是「資料不離開本地」。各參與方在本地訓練模型,只將模型更新(梯度或參數)上傳到中央協調伺服器進行聚合,原始資料始終留在本地。「資料集中到主伺服器訓練」正是聯邦學習想要避免的傳統集中式訓練模式,因此這項描述是錯誤的。
無人機巡邏系統需要同時整合 GPS 定位、攝影機影像、雷達測距和麥克風聲音等多種感測器資料,以準確感知周圍環境。這種整合多感測器資料的技術稱為什麼?
感測器融合(Sensor Fusion)是感知型 AI 系統的關鍵技術,透過整合來自不同感測器(視覺、聲音、雷達、LiDAR、GPS 等)的資料,克服單一感測器的限制,獲得更可靠、更完整的環境感知。自動駕駛車輛和無人機系統廣泛採用此技術,以應對各種複雜環境條件。
在 Transformer 的自注意力(Self-Attention)機制中,每個輸入 token 會被映射為三個向量。當我們要計算「這個詞應該關注句子中哪些其他詞」時,這三個向量各自扮演什麼角色?
自注意力機制可以類比成資料庫查詢:Query(查詢)代表當前 token 想尋找的資訊類型,Key(鍵)代表每個 token 對外聲稱自己包含的資訊類型,兩者的點積計算出注意力分數,再透過 Softmax 加權 Value(值)向量求和,得出包含語境資訊的輸出。這種機制讓模型能動態關注句子中不同位置的詞。
Google 的 BERT 和 OpenAI 的 GPT 都基於 Transformer 架構,但它們的預訓練目標根本不同。下列哪項正確描述了兩者的差異?
BERT(Bidirectional Encoder Representations from Transformers)採用遮蔽語言模型(Masked Language Model,MLM)預訓練:隨機遮蔽輸入中 15% 的 token,讓模型預測被遮蔽的詞,這使 BERT 能雙向理解上下文,適合理解任務(分類、問答)。GPT 則採用自回歸的下一個 token 預測,從左到右生成文字,適合生成任務。
一個深度學習模型在訓練集上的準確率達到 98%,但在驗證集上只有 72%,且兩者差距隨訓練輪次增加而擴大。這最可能是什麼問題?如何在訓練過程中最早偵測到它?
過擬合(Overfitting)的典型特徵就是訓練集表現遠優於驗證集。模型過度記憶了訓練資料中的雜訊和特定模式,而失去了對新資料的泛化能力。最早偵測方法是在訓練時同步監控訓練集和驗證集的損失曲線,當驗證集損失開始上升而訓練集損失繼續下降時,即為過擬合的信號。
隨機森林(Random Forest)是一種廣泛用於信用評分和醫療診斷的強大集成演算法。它的核心設計思想是什麼?
隨機森林的兩個核心隨機化機制:① Bagging — 對訓練資料進行有放回抽樣,建立多個不同的訓練子集;② 特徵隨機性 — 每棵樹在每次分裂時只考慮隨機選取的特徵子集。這兩種隨機性使各棵樹之間的相關性降低,最終透過多數投票(分類)或平均(迴歸)集成,顯著降低方差,提升泛化能力。
一家零售商想將數千名顧客根據購買行為自動分群,以進行分眾行銷,但目前沒有任何預先定義的顧客類型標籤。K-Means 演算法最適合這個任務,其核心運作原理是什麼?
K-Means 是一種無監督分群演算法,步驟為:① 隨機選取 K 個初始中心點;② 將每個資料點分配到距離最近的中心點所屬群組;③ 重新計算每個群組的中心點(取均值);④ 重複步驟②③直到中心點不再移動(收斂)。其不需要標記資料,適合顧客分群、文件聚類等無監督任務。
醫院的 AI 系統對 1000 名患者進行癌症篩查,混淆矩陣顯示有 50 名實際患有癌症的患者被模型錯誤判斷為健康。這 50 個錯誤案例屬於混淆矩陣中的哪個類別?
假陰性(False Negative,FN)是指實際標籤為正類(患有癌症),但模型預測為負類(健康)的情況。在癌症篩查場景中,假陰性尤其危險,因為患病者被漏診,可能延誤治療。這也是為什麼在醫療篩查中優先優化召回率(Recall = TP / (TP + FN))而非精確率的原因。
一個垃圾郵件偵測模型的精確率(Precision)為 0.80,召回率(Recall)為 0.60。如果你想用單一指標來平衡評估這個模型的整體分類能力,應該計算什麼?
F1-Score 是精確率(Precision)和召回率(Recall)的調和平均數,公式為 F1 = 2 × (Precision × Recall) / (Precision + Recall)。本例中 F1 = 2 × (0.80 × 0.60) / (0.80 + 0.60) ≈ 0.686。調和平均數對較低的值更敏感,確保兩者都高才能得到高 F1 分數,適合不均衡資料集的評估。
一家新創公司想訓練一個識別特定工業零件瑕疵的 AI,但只有少量瑕疵樣本。他們計畫使用在 ImageNet 上預訓練的 ResNet 模型作為起點,只需微調最後幾層。這種做法利用了什麼技術?
遷移學習的核心思想是:在大型資料集(ImageNet 有 120 萬張圖片)上預訓練的模型已學到通用的視覺特徵(邊緣、紋理、形狀等)。將這些特徵表示「遷移」到新的小資料集任務上,只需微調(Fine-tuning)最後幾層,就能以少量資料達到很好的效果。這解決了從零訓練需要大量標記資料的問題。
一個用於識別貓狗圖片的 CNN 模型訓練資料集只有 5000 張圖片,數量不足。資料科學家決定對現有圖片進行隨機旋轉、水平翻轉、裁剪和調整亮度,人工擴充資料集規模。這種技術稱為什麼?
資料增強(Data Augmentation)是指在不收集新資料的情況下,透過對現有圖片進行幾何變換(旋轉、翻轉、裁剪)和色彩變換(亮度、對比度調整)等操作,產生新的訓練樣本。這讓模型學習到更多樣化的輸入模式,提升對真實世界變化的魯棒性,是小資料集場景的常用技術。
一個模型在特定測試集上的表現很好,但研究人員懷疑這只是因為測試集碰巧適合該模型,不能代表真實性能。他們想獲得更可靠的泛化能力評估。應該使用什麼技術?
K 折交叉驗證將資料集分成 K 個大小相等的子集(fold),進行 K 次訓練:每次用 K-1 個子集訓練,剩下 1 個作為測試集,最後對 K 次結果取平均。這確保每筆資料都被用來訓練和測試過,評估結果更穩定可靠,有效降低因單次資料分割的偶然性造成的評估偏差。
在訓練神經網路時,模型需要不斷調整數百萬個參數的數值,以最小化損失函數。這個調整參數的核心優化過程稱為什麼?
梯度下降是神經網路訓練的核心優化算法。透過反向傳播計算損失函數對每個參數的偏導數(梯度),然後沿著梯度的反方向更新參數,逐步使損失函數下降至(局部)最小值。常見變體包括 SGD(隨機梯度下降)、Adam、RMSprop,分別在收斂速度和穩定性上有不同取捨。
一個房價預測模型的輸入特徵包含「城市」欄位,值為「台北」、「台中」、「高雄」等類別。如果直接用 1、2、3 等數字編碼,模型可能錯誤地認為「高雄(3)比台北(1)大兩倍」。應該使用哪種編碼技術避免此問題?
獨熱編碼(One-Hot Encoding)將每個類別值轉換為一個獨立的二進制欄位。例如「城市」欄位有 3 個值時,會生成 3 個欄位:is_taipei(0/1)、is_taichung(0/1)、is_kaohsiung(0/1)。這樣模型不會推斷出類別間的大小或距離關係,正確處理無序類別特徵。
一個乳癌篩查 AI 模型的分類閾值可以調整:提高閾值可以減少假陽性(誤報),降低閾值可以減少假陰性(漏報)。在這個醫療場景中,設計模型時應優先最佳化哪個指標,理由是什麼?
在癌症篩查這類高風險醫療場景中,假陰性(漏診真實患者)的代價遠大於假陽性(誤報健康人)。漏診可能導致患者延誤治療,造成生命威脅;誤報只需要後續的確認性檢查。因此應降低分類閾值,優先提高召回率(Recall = TP / (TP + FN)),即使犧牲一些精確率也值得。這體現了精確率-召回率的取捨原則。
訓練深度神經網路時,隨著網路層數增加,各層輸入的分佈會因參數更新而不斷偏移(Internal Covariate Shift),導致訓練不穩定且需要更低的學習率。哪種技術最直接解決此問題?
批次正規化(Batch Normalization)在每個網路層的輸入上,計算當前 mini-batch 的均值和方差,將輸入正規化為零均值單位方差,再透過可學習的縮放和位移參數還原表達能力。這有效解決了 Internal Covariate Shift 問題,帶來更快的訓練收斂、允許更高的學習率,以及一定程度的正則化效果。
一個房價預測神經網路在訓練集表現極佳,但測試集表現差。工程師想在不增加訓練資料的情況下,透過在訓練時隨機「關閉」一部分神經元來強迫網路學習更魯棒的特徵表示。這種正則化技術稱為什麼?
Dropout 是一種強大的正則化技術。在每次訓練迭代中,以設定的機率(如 50%)隨機將部分神經元的輸出置零,使網路無法依賴任何特定的神經元,被迫學習更分散、更魯棒的特徵表示。這相當於同時訓練多個不同結構的子網路,最終進行集成。注意:Dropout 只在訓練時使用,推論時所有神經元都啟用。
一家科技公司正在開發一套能同時理解圖片與文字的多模態 AI 系統,用於電商商品搜尋。開發團隊發現,即使圖像辨識模組與文字理解模組各自表現良好,整合後的搜尋結果仍然不準確。請問這個整合問題最核心的技術挑戰是什麼?
多模態 AI 的核心技術挑戰在於「跨模態語意對齊(cross-modal alignment)」。圖像與文字分別存在於不同的向量空間中,即使兩個模組各自優秀,若無法將「一隻紅色的貓」的文字描述與對應圖片映射到相近的語意空間,系統就無法正確比對。CLIP 等模型正是透過對比學習來解決此對齊問題。選項 A、C、D 雖可能影響效能,但並非多模態整合的根本挑戰。
某新聞媒體公司收到一段名人發表爭議言論的影片,編輯懷疑這是經過 AI 合成的 Deepfake 影片。請問下列哪種技術手段最適合用來驗證影片的真實性?
偵測 Deepfake 最有效的方法是使用「AI 驗證模型(AI verification models)」,這類模型專門訓練來識別人臉合成的細微偽造痕跡,例如:眼睛眨動頻率異常、臉部邊緣模糊、光源不一致、眼白血管消失等。人工目視(選項 A)容易受高品質 Deepfake 欺騙;社群舉報(選項 C)依賴人群反應,速度慢且不可靠;檔案大小(選項 D)與 AI 合成無直接關聯。
一位語音辨識工程師在建立語音轉文字模型前,需要對原始音訊波形進行前處理。他必須將時域(time-domain)的音訊訊號轉換為頻域(frequency-domain)的特徵表示,以便模型提取音素特徵。請問這個步驟主要使用哪種數學轉換?
音訊前處理(audio preprocessing)的關鍵步驟是使用「傅立葉轉換(Fourier Transform)」或其高效實作「快速傅立葉轉換(FFT)」,將時域波形轉為頻譜(spectrogram)或梅爾頻率倒譜係數(MFCC)。這些頻域特徵能清楚表示語音中不同頻率成分的能量分佈,比原始波形更適合模型學習音素。PCA(A)用於降維,反向傳播(C)用於訓練神經網路,SVD(D)用於矩陣分解,均非音訊前處理的核心工具。
一名 NLP 工程師在訓練一個長文本序列分類模型時,發現使用標準 RNN 時梯度消失問題嚴重,導致模型無法學習長距離依賴關係。主管建議改用一種具備「重置閘(reset gate)」與「更新閘(update gate)」機制的架構。請問這個架構是什麼?
「門控循環單元(GRU, Gated Recurrent Unit)」正是為了解決標準 RNN 梯度消失問題而設計的。GRU 擁有兩個閘控機制:更新閘(update gate)決定保留多少歷史記憶,重置閘(reset gate)決定忽略多少過去資訊。這讓模型能有效學習長距離序列依賴,且相比 LSTM 結構更簡單、參數更少。BiRNN(B)改善了上下文捕捉方向,但並未解決梯度消失問題。CNN(A)和 ResNet(D)主要用於影像處理,非序列記憶的主流選擇。
一家醫療 AI 公司部署了一套輔助診斷系統。當系統遇到訓練資料中從未出現過的罕見病症圖像時,仍然強行輸出一個診斷結果,導致誤診。請問應採用何種機制來防止模型在不確定的情況下給出錯誤答案?
面對分佈外(out-of-distribution)的陌生輸入,正確的做法是引入「信心度閾值(confidence threshold)」機制。當模型對某輸入的預測機率(softmax 輸出最大值)低於預設閾值時,系統應拒絕作答(abstain)並轉由人工處理,而非強行輸出可能有害的錯誤結論。這在醫療、法律等高風險場景尤為重要。增加層數(A)或擴大訓練資料(C)不能根本解決分佈外問題;換回規則系統(D)則放棄了 AI 的優勢。
一家遊戲公司評估是否使用擴散模型(Diffusion Model)自動生成高品質遊戲場景美術。在技術評估報告中,工程師特別指出此類模型在實際生產環境中有一個主要瓶頸,需要大量 GPU 資源且即時生成困難。請問這個瓶頸指的是什麼?
擴散模型(Diffusion Model)的核心限制在於「推論速度慢(slow inference)」。生成一張圖片需要執行數十甚至數百個去噪步驟(denoising steps),每步都需要通過完整的神經網路,導致計算成本極高,難以達到即時生成。雖然 DDIM 等加速方法有所改善,但仍無法與 GAN 的單步生成相比。擴散模型能生成高解析度圖像(A 錯誤),訓練可使用無標記資料(B 錯誤),且已被延伸用於影片生成(D 錯誤)。
一家金融機構正在評估一套 AI 貸款審核系統的治理框架。為了確保高風險的放款決策仍有人類負責,並且在 AI 出現異常判斷時能立即介入,應採用哪種實踐方式?
在 AI 治理中,「人類監督(Human Oversight)」的實踐方式包含:對高風險任務設置強制人工審查節點,以及設計緊急中斷機制(kill switch)。這種「Human-in-the-loop for high-risk decisions」框架確保 AI 不會在無人監督下做出影響重大的決策。EU AI Act 等法規也明確要求高風險 AI 系統必須保留人工控制能力。完全自動化(A)、離線批次(B)和自動在線學習(D)都削弱了即時的人類監督能力。
一個健康研究機構使用差分隱私(Differential Privacy)技術保護患者資料後,發現訓練出的疾病預測模型在某些罕見疾病群體上的準確率明顯下降。這個現象說明了差分隱私的哪種副作用?
差分隱私透過在資料或梯度中加入「校準雜訊(calibrated noise)」來保護個人隱私,但這不可避免地造成「準確率與隱私保護的取捨(accuracy-privacy trade-off)」。雜訊使資料分佈失真,對樣本量少的少數群體(如罕見疾病患者)影響尤其嚴重,因為少量樣本的統計特徵更容易被雜訊淹沒。這是差分隱私已知的公平性挑戰。訓練時間(A)、邊緣部署(B)和對抗攻擊(D)均非差分隱私的主要副作用。
一家零售商考慮導入 AI 庫存預測系統,在正式開發前,專案負責人提議先執行一個小規模的「概念驗證(PoC)」。請問 PoC 階段的主要目的是什麼?
概念驗證(Proof of Concept, PoC)的核心目的是在投入大量資源前,以最低成本驗證兩件事:(1)技術可行性——AI 能否解決這個問題;(2)商業價值——解決方案是否值得投資。PoC 通常使用少量樣本資料,快速搭建原型,讓利害關係人能看到初步結果再決定是否繼續。直接開發完整系統(A)跳過了風險評估;設計文件(B)和人員培訓(D)是後續步驟。
一家律師事務所使用 AI 系統自動生成法律建議,客戶依照系統建議行動後遭受財務損失,事後發現建議內容有誤。當客戶要求追究責任時,這個案例凸顯了 AI 應用中哪個核心治理問題?
這個情境直接指向 AI 倫理中的「問責性(Accountability)」問題:當 AI 產出錯誤結果並造成損害時,責任應歸屬於誰(開發商、部署方、使用者)?目前大多數 AI 系統缺乏清晰的問責框架,這在法律、醫療等高風險領域尤其危險。負責任的 AI 部署需要明確定義決策鏈中每個角色的責任,並建立申訴管道。計算效率(A)、資料量(B)和詞彙量(D)均非此案例的核心問題。
一家律師事務所的合夥人要求助理使用 ChatGPT 快速摘要一份複雜的商業合約,並整理關鍵條款。助理提交的摘要中,ChatGPT 援引了一個實際上不存在的判例來支持某條款的解釋。這個問題揭示了使用 LLM 處理法律文件的哪種主要風險?
這是典型的「幻覺(Hallucination)」問題:LLM 因訓練方式是預測下一個詞,它會生成「聽起來合理」的內容,即使該內容是虛構的。在法律領域,這極為危險——虛構的判例、錯誤引用的法條、或不存在的法律原則可能誤導決策並造成嚴重後果。這也是為何法律 AI 工具需要結合 RAG(檢索增強生成)技術,確保輸出內容可追溯至真實法律文件。
一家醫院計畫部署 AI 輔助系統來分析 X 光片並建議診斷方向。在風險管控框架中,為了確保病患安全,對於 AI 系統的輸出建議,醫院應採取哪種最關鍵的控管措施?
在醫療高風險 AI 應用中,「人類專家複審(human expert review)」是最關鍵的控管措施。AI 輔助診斷的定位應為「第二意見」或「輔助工具」,最終診斷決策必須由具有執照的醫療專業人員負責。這不僅是醫學倫理的要求,也是大多數醫療 AI 法規(包括 FDA、EU MDR)的強制規定。選項 C 將閾值設定在 50% 過低,許多錯誤發生在高信心度的預測中;選項 A、D 都將 AI 置於人類判斷之上,違反醫療安全原則。
一名 AI 研究員正在向非技術背景的產品經理解釋 ChatGPT 的底層架構。他說:「ChatGPT 使用的 Transformer 架構只有一半。」請問 ChatGPT 使用的是 Transformer 的哪個部分,以及其主要功能是什麼?
ChatGPT(以及 GPT 系列)採用的是「僅 Decoder(Decoder-only)」的 Transformer 架構。其核心機制是「自回歸生成(autoregressive generation)」:模型根據所有前面已生成的 token,預測下一個最可能的 token,重複此過程直到生成完整回應。對比之下,BERT 使用僅 Encoder 架構(適合理解任務),T5 使用完整 Encoder-Decoder(適合翻譯等轉換任務)。Retriever 模組(D)屬於 RAG 架構,非 ChatGPT 的基礎架構。
一家食品工廠部署 AI 視覺檢測系統來過濾不良品。品管主管發現系統的不良品過濾率偏低——意即有許多真正的不良品被系統誤判為良品放行。為了改善這個問題,工程師應著重提升模型的哪個評估指標?
「過濾率偏低」意味著系統「漏抓」了很多真正的不良品(False Negative 高),這正是「召回率(Recall)」所衡量的指標:Recall = TP / (TP + FN)。召回率越高,漏掉的真實陽性越少。在食品安全、醫療篩查等場景中,漏判的代價遠高於誤報,因此應優先優化 Recall。精確率(A)衡量的是「預測為不良品的有多準確」,Specificity(C)衡量良品的正確辨識率。F2 分數(D)雖然加重 Recall 的權重,但題目明確指出核心問題是 Recall 不足。
一家電信公司計畫在官網客服頁面導入 ChatGPT 作為自動回覆機器人。法務部門要求在部署時必須納入一項有限風險管控措施,以符合 EU AI Act 的透明度要求。請問最基本應執行哪項措施?
根據 EU AI Act 對「有限風險 AI 系統」的規定,使用 AI 與使用者互動時必須履行「透明度義務(transparency obligation)」,即明確揭露(disclose)使用者正在與 AI 互動,而非真人客服。這讓使用者能做出知情決策,例如選擇轉接真人。這項要求成本低但意義重大,是最基本的合規措施。要求簽署免責聲明(B)、限制回覆次數(C)和長期錄音(D)均非 EU AI Act 的核心合規要求。
一家新創公司正在開發多語言語音轉文字(Speech-to-Text)服務,技術長要求評估業界主流的深度學習架構方案。請問下列哪個選項最正確描述了現代語音轉文字系統的核心深度學習架構?
現代語音轉文字的兩大主流深度學習架構是:(1)「Whisper」——OpenAI 開發,基於 Transformer Encoder-Decoder,在梅爾頻譜圖(Mel spectrogram)輸入上進行序列到序列轉換,支援 99 種語言;(2)「CTC(Connectionist Temporal Classification)」——解決輸入音訊長度與輸出文字序列長度不對齊的問題,廣泛用於端對端語音辨識。傳統 HMM+GMM(A)已被深度學習架構取代;GPT-4(C)是文字生成模型,不直接處理音訊波形;強化學習(D)不是 STT 的主流訓練範式。
一家科技公司開發了一套 AI 系統,用於預測哪些員工未來一年內可能離職,以便 HR 提前進行關懷。工程師在特徵工程時將「性別」欄位納入預測模型,結果模型對女性員工標記高離職風險的比例顯著高於男性。請問這個做法主要違反了 AI 倫理的哪個原則?
在 AI 模型中使用性別、種族、宗教等「敏感特徵(sensitive features)」作為預測依據,會導致系統性歧視,直接違反「公平性(Fairness)」原則。即使模型的統計準確率尚可,這種做法會形成「預測性歧視」——基於性別而非實際工作表現標記高風險,可能強化職場不平等,並在許多國家觸犯就業歧視法規。負責任的 AI 開發應評估預測特徵是否為代理變數(proxy variable),避免使用受保護屬性。
一位產品經理問工程師:「ChatGPT 和十年前的規則型聊天機器人有什麼根本不同?」工程師從訓練方式的角度回答。請問下列哪個選項最正確描述了 ChatGPT 與傳統 chatbot 在訓練方式上的核心差異?
ChatGPT 的核心訓練差異在於:(1)「自監督預訓練(self-supervised pre-training)」——在沒有人工標記的情況下,透過「預測下一個 token」任務在超大規模語料(數千億詞)上學習語言知識;(2)「RLHF(人類反饋強化學習)」微調——利用人類偏好評分優化回覆品質。傳統 chatbot 依賴手工規則或少量標記對話資料。ChatGPT 並不持續爬取網路(D),其知識截止於訓練資料截止日。
使用 ChatGPT 進行學術研究時,有學生發現它引用了一篇完全不存在的期刊論文,包括偽造的作者名稱、期刊名稱和 DOI。這種現象的根本原因是什麼?
ChatGPT 生成虛構引用文獻的根本原因是「缺乏真實資料錨定(no grounding)」。LLM 是一個統計語言模型,它學會了「學術引用應該長什麼樣子」的格式,並能生成符合格式的內容,但它沒有連接到真實的學術資料庫(如 PubMed、Google Scholar)去驗證這些引用是否真實存在。這就是為何在需要精確來源的任務中,應使用 RAG(檢索增強生成)架構,讓模型從真實文件庫中擷取資訊後再生成回應。
一家保險公司部署了 AI 理賠審核系統,員工反映他們傾向於直接接受 AI 的建議而不加思考,即使直覺上覺得結果有些奇怪。管理層擔憂這種過度依賴 AI 的行為會造成系統性錯誤。請問應採用哪種 AI 設計理念來解決這個問題?
「人機協作(Human-in-the-Loop, HITL)」設計的核心目標之一,就是防止使用者對 AI 產生過度依賴(automation bias)。有效的 HITL 設計包括:要求使用者主動輸入判斷依據(而非只點「確認」)、在 AI 建議介面呈現信心度與不確定性、定期進行人類績效評估以檢測自動化偏誤。降低閾值(D)會增加錯誤通過率;完全移除 AI(B)則放棄了效率提升;用技術術語(A)只會讓員工更難理解。
一家銀行的數據科學家正在選擇合適的 AI 模型類型。她的任務是將客戶分類為「高價值」、「中等價值」、「低價值」三個群體,不需要生成任何新的內容。請問這個任務應使用哪種 AI 模型類型,以及其核心特徵是什麼?
「判別式 AI(Discriminative AI)」的核心功能是學習不同類別之間的決策邊界(decision boundary),直接建模 P(Y|X)——給定輸入 X 屬於類別 Y 的機率。它只能分類、預測或識別,無法生成新的資料樣本。常見例子:邏輯回歸、SVM、隨機森林、傳統 CNN 分類器。對比之下,生成式 AI(A)建模 P(X|Y) 或 P(X),能生成新樣本;強化學習(C)用於序列決策問題;擴散模型(D)是生成式 AI 的一種。
在 Transformer 的注意力機制計算中,工程師計算完 QKᵀ/√dₖ 得到注意力分數矩陣後,下一步會對此矩陣套用 softmax 函數。請問 softmax 在這個步驟中的作用是什麼?
在注意力機制的公式 Attention(Q,K,V) = softmax(QKᵀ/√dₖ)V 中,softmax 的作用是將每一列的注意力分數(raw scores)轉換為「加總為 1 的機率分佈(probability distribution)」。這個機率分佈代表:當模型處理某個 token 時,它應該分配多少「注意力」給序列中的其他各個位置。高分數的位置獲得高權重,低分數的位置獲得接近零的權重。除以 √dₖ 是為了防止點積數值過大導致 softmax 梯度消失。
一家 NLP 新創公司在評估詞向量技術時,技術顧問解釋了 Word2Vec 和 BERT 的根本差異。以「蘋果」這個詞為例,在「我吃了一顆蘋果」和「蘋果公司發布了新手機」兩個句子中,兩種模型的處理方式有何不同?
Word2Vec 是「靜態詞嵌入(static embeddings)」:無論「蘋果」出現在任何上下文,它的向量表示都是固定的,無法區分「水果蘋果」與「Apple 公司」。BERT 則產生「情境化詞嵌入(contextual embeddings)」:透過雙向 Transformer,「蘋果」在不同句子中會有截然不同的向量,從而能正確捕捉一詞多義(polysemy)。這是 BERT 相對 Word2Vec 最重要的突破,也是現代 NLP 的基礎進步。
一家醫療 AI 公司訓練疾病預測模型,資料集中有 9,500 筆健康樣本和 500 筆患病樣本。工程師發現模型傾向於將所有樣本預測為「健康」,準確率達 95%。為解決類別不平衡問題,工程師採用了 SMOTE 技術。請問 SMOTE 的作用是什麼?
SMOTE(Synthetic Minority Over-sampling Technique)是一種「過採樣(oversampling)」技術,專門用於解決類別不平衡問題。它的做法是:在少數類別的樣本之間,沿著 k 個最近鄰(k-nearest neighbors)的連線方向,隨機插值生成合成的新樣本,而非直接複製。這讓少數類別的樣本數量增加,且具備更多樣的特徵分佈,幫助模型更好地學習少數類別的決策邊界。隨機刪除多數類別(A)是欠採樣,會損失資訊;選項 C 是標準化;選項 D 是集成學習。
一位資料科學家訓練了一個信用卡詐欺偵測模型,並繪製了 ROC 曲線,計算出 AUC 值為 0.52。請問這個結果說明了什麼?
ROC-AUC(Receiver Operating Characteristic - Area Under Curve)衡量模型區分正負類別的整體能力:AUC = 1.0 代表完美分類器;AUC = 0.5 代表模型等同隨機猜測(無辨別能力);AUC < 0.5 代表模型甚至比隨機猜測更差。AUC = 0.52 幾乎等同於隨機猜測,說明模型在詐欺偵測上基本失效,需要重新檢視特徵工程、模型架構或訓練資料。AUC 並不直接對應準確率(D)或 Precision/Recall(C)的數值。
一名機器學習工程師在訓練線性迴歸模型時遇到過擬合問題,考慮加入正規化項。他的特徵中有許多是不相關的雜訊特徵,他希望模型能自動剔除這些無用特徵。請問他應選擇 L1 還是 L2 正規化,理由是什麼?
L1 正規化(Lasso)與 L2 正規化(Ridge)的關鍵差異在於對係數的處理方式:L1 懲罰係數的「絕對值之和」,其幾何特性(菱形約束空間)傾向於讓部分係數精確收斂到 0,形成「稀疏解(sparse solution)」,相當於自動進行特徵選擇。L2 懲罰係數的「平方和」,傾向於讓所有係數均勻縮小(shrinkage)但不歸零。因此,若目標是剔除無用特徵,應選 L1。Elastic Net 結合兩者各取所長。注意:L1 在零點確實不可微,但可用次梯度(subgradient)方法解決,並不妨礙實際使用。
一位 NLP 工程師在建立文字分類模型的第一步,需要將原始文字「The quick-brown fox jumps!」轉換為模型可處理的格式。他執行了一個步驟,將字串分割成 ['The', 'quick', '-', 'brown', 'fox', 'jumps', '!'] 這樣的單元列表。這個步驟叫做什麼,其目的是什麼?
「分詞(Tokenization)」是 NLP 前處理的第一步,目的是將原始文字字串切割成模型能夠處理的最小語義單元——「token」。Token 可以是:單詞(word-level)、子詞(subword,如 BPE、WordPiece)或字元(character-level)。現代 LLM 主要使用子詞分詞,例如「unbelievable」可能被切為 ['un', '##believe', '##able']。分詞後,每個 token 才能透過嵌入層(embedding layer)轉換為數值向量。向量化(A)是分詞之後的步驟,詞幹提取(C)和批次正規化(D)是不同的技術。
一個跨國醫療聯盟想要共同訓練一個疾病預測模型,但各醫院的患者資料因隱私法規(如 GDPR、HIPAA)無法集中到單一伺服器。請問哪種機器學習架構能讓各機構在不共享原始資料的情況下協作訓練模型?
「聯邦學習(Federated Learning)」的核心設計原則是「資料不動,模型動(data stays local)」:各參與機構在本地用自己的資料訓練模型,只將模型更新(梯度或權重差異)上傳至中央伺服器進行聚合(通常使用 FedAvg 演算法),聚合後的全域模型再下發給各機構。原始資料全程留在本地,不共享。這滿足 GDPR 等隱私法規的要求。集中式學習(A)需要匯集原始資料;遷移學習(B)和主動學習(D)不解決資料無法集中的問題。
一家 AI 公司準備開源發布一個影像分類模型。為了讓下游使用者了解模型的適用場景、已知偏見和效能限制,公司的 AI 倫理委員會要求隨模型一起發布一份標準化文件。請問這份文件最可能是什麼?
「模型卡(Model Card)」由 Google 的 Margaret Mitchell 等人提出,是 AI 透明度的標準化工具,旨在記錄:模型的訓練目標與評估結果、不同子群體(如不同性別、年齡、種族)的效能差異、已知的偏見與局限性、適合與不適合的使用情境,以及潛在的風險與倫理考量。模型卡幫助使用者做出知情的部署決策。資料表(A)針對資料集而非模型;設計文件(C)著重技術實作;EULA(D)是法律文件。
一家跨國科技公司在歐盟部署了一套被認定為「不可接受風險(unacceptable risk)」類別的 AI 系統,歐盟監管機構對其展開調查。根據 EU AI Act,若公司違規,最高可面臨什麼程度的罰款?
EU AI Act 根據違規的嚴重程度設有三層罰款機制:(1)最嚴重——違反不可接受風險禁令(如大規模人臉辨識、社會評分):最高 3,500 萬歐元或全球年營收的 7%;(2)中等——高風險 AI 系統違規:最高 1,500 萬歐元或全球年營收的 3%;(3)提供不實資訊給主管機關:最高 750 萬歐元或全球年營收的 1%。這是全球最嚴格的 AI 監管罰則之一,對大型科技公司而言,7% 的全球營收罰款可能高達數十億美元。
OpenAI 使用「人類反饋強化學習(RLHF)」訓練 ChatGPT。請問 RLHF 的完整訓練流程包含哪三個核心步驟?
RLHF(Reinforcement Learning from Human Feedback)的三步驟流程:(1)「監督式微調(SFT)」:在指令跟隨資料上微調預訓練語言模型;(2)「獎勵模型訓練(Reward Model Training)」:讓人類評估員對多個模型回應進行偏好排序,用這些偏好資料訓練一個獎勵模型(reward model),學習什麼樣的回覆是「好的」;(3)「PPO 強化學習優化」:使用近端策略優化(Proximal Policy Optimization, PPO)演算法,讓語言模型生成的回覆最大化獎勵模型的分數,同時加入 KL 散度懲罰防止模型偏離太遠。
一家法律科技公司考慮如何讓 AI 助理掌握最新的法規條文(每月更新)。另一個需求是讓 AI 的回應語氣更正式、更符合法律文件的寫作風格。請問針對這兩個需求,應分別優先採用哪種技術?
RAG(Retrieval-Augmented Generation)與微調(Fine-tuning)的適用場景有明確分工:RAG 適合「動態知識更新」——每次推論時從外部知識庫擷取最新文件,無需重新訓練,成本低且靈活,適合法規、新聞等頻繁更新的知識;微調適合「行為與風格調整」——讓模型學習特定的語氣、格式、推理模式,改變的是模型參數本身的行為傾向。因此:最新法規(動態知識)→ RAG;法律寫作風格(行為調整)→ 微調。
一個語義搜尋引擎將所有文件和查詢轉換為高維嵌入向量,然後找出與查詢語意最相近的文件。請問這個系統使用哪種相似度計算方法最為合適,以及為什麼?
在語義嵌入空間中,「餘弦相似度(Cosine Similarity)」是最廣泛使用的語意相似度度量。其優勢在於:它衡量的是兩個向量的「方向相似性」而非「長度差異」——cos(θ) = (A·B) / (|A||B|)。在 NLP 中,一段話的長短不應影響其語意相似性(一句話和五句話描述同一件事應是相似的),餘弦相似度天然滿足這個需求。歐幾里德距離(A)和曼哈頓距離(B)受向量長度影響,不適合嵌入空間的語意比較。傑卡德係數(D)適用於集合(如詞袋模型),不適用於連續向量。
一名資料科學家在建立房價預測模型時,在資料前處理階段對整個資料集(包含測試集)計算了平均數和標準差來做標準化,然後再分割訓練集與測試集。模型的測試集表現異常優秀,但實際部署後效果很差。請問最可能的原因是什麼?
這是典型的「資料洩漏(Data Leakage)」情境。正確做法應是:先分割資料集,再只用訓練集計算統計量(均值、標準差),然後用這些統計量分別轉換訓練集和測試集。若用全體資料計算統計量,測試集的分佈資訊(均值、方差)就已「洩漏」進前處理步驟,導致模型隱性地「看過」測試集資訊,測試集評估結果被人工虛抬(inflated metrics)。部署後因真實資料沒有這種洩漏,效果自然大幅下滑。這是 ML 中最常見且難以察覺的錯誤之一。
一個電商推薦系統在六個月後開始推薦表現下滑。數據分析顯示:(A)用戶的購買行為模式沒有改變,但輸入的商品類別分佈因為夏季到來而出現了明顯偏移;(B)另一個情況是:用戶的偏好本身發生了根本性改變(如從喜好奢侈品轉向偏好性價比產品)。請問這兩種情況分別對應哪種資料品質問題?
資料漂移與概念漂移的核心差異:「資料漂移(Data Drift)」指輸入特徵 X 的分佈發生變化(P(X) 改變),但 X 與 Y 的關係 P(Y|X) 不變——情況 A 中商品類別分佈因季節偏移即屬此類,模型見到的輸入種類變了,但推薦邏輯本身仍然有效。「概念漂移(Concept Drift)」指 X 與 Y 之間的映射關係 P(Y|X) 本身改變——情況 B 中用戶偏好根本性轉變,即使輸入特徵相同,正確的推薦結果也已不同,模型邏輯整體失效。
一家銀行的 AI 模型使用隨機森林(Random Forest)預測貸款違約風險。風控主管要求了解哪些特徵對模型預測最重要,以便業務解釋。請問隨機森林中評估特徵重要性的主要方法是什麼?
隨機森林提供兩種主流的特徵重要性評估方法:(1)「基尼重要性(Gini Importance / Mean Decrease Impurity)」:計算某特徵在所有決策樹中,每次作為分割節點時帶來的平均不純度降低量,降低越多代表越重要;(2)「排列重要性(Permutation Importance)」:將某特徵的數值隨機打亂,觀察模型效能下降幅度,下降越多代表該特徵越重要。線性迴歸係數(A)只適用於線性模型;特徵變異數(C)與預測能力無直接關係;PCA 載荷(D)代表主成分構成,非原始特徵重要性。
一家國際航空公司想要建立一套能自動轉錄機上廣播(涵蓋英文、日文、韓文、泰文等多語言)的系統。一名工程師推薦使用 OpenAI 的 Whisper 模型。請問 Whisper 的主要特色是什麼?
OpenAI 的 Whisper 是一個「多語言語音辨識(multilingual ASR)」模型,主要特色包括:(1)支援 99 種語言的語音轉文字;(2)同時支援語言辨識(自動偵測語言)和語音翻譯(直接翻譯為英文);(3)基於 Transformer Encoder-Decoder 架構,以梅爾頻譜圖(Mel spectrogram)作為輸入;(4)在 68 萬小時的多語言音訊資料上訓練;(5)開源可本地部署。Whisper 是語音辨識(ASR)不是 TTS(D),且已開源並非只能透過 API 使用(C)。
一家新創公司想要對 LLaMA-3 進行客製化微調,但 GPU 記憶體有限,無法負擔全參數微調(full fine-tuning)的成本。技術主管提議使用 LoRA 技術。請問 LoRA 如何在不改變原始模型大小的情況下實現高效微調?
LoRA(Low-Rank Adaptation)的核心思想:預訓練 LLM 的權重更新矩陣 ΔW 具有「低秩(low-rank)」特性。LoRA 凍結原始權重 W₀,在目標層(通常是注意力的 Q、K、V 矩陣)旁並行注入兩個低秩矩陣:A(d×r)和 B(r×d),其中秩 r 遠小於原始維度 d(如 r=8 vs d=4096)。推論時的輸出為 W₀x + BAx。只需訓練 A 和 B,參數量通常僅為原始模型的 0.1%~1%,大幅降低 GPU 記憶體需求和訓練時間,且效果接近全參數微調。
一名開發者正在串接 OpenAI API 建立一個創意寫作應用。他注意到 API 有一個「temperature」參數。當他將 temperature 設為 0 時,模型每次回應幾乎相同;設為 1.5 時,回應變得更有創意但有時語意不連貫。請問 temperature 參數控制的是什麼?
Temperature 是 LLM 生成時的「隨機性控制參數」,它透過縮放 softmax 前的 logits 來調整詞彙分佈的「平滑程度」:Temperature = 0(或接近 0):分佈極度尖銳,模型每次幾乎都選最高機率的 token(貪婪解碼),輸出確定性強,適合事實問答、程式生成。Temperature = 1:標準 softmax 分佈。Temperature > 1:分佈更平坦,低機率詞也有機會被選到,輸出更多樣、更有創意,適合創意寫作,但過高會導致語意混亂。這是提示詞工程中最重要的參數之一。
一名工程師在設計 LLM 提示詞策略時,考慮兩種方式:(A)直接問 LLM「請分類這則評論的情感傾向:正面/負面」;(B)在問題前先提供三個已標注的評論範例,再詢問新評論的分類。請問這兩種策略分別叫做什麼?
提示詞策略的分類依據是「是否在 prompt 中提供任務範例」:「零樣本(Zero-shot)」:不提供任何範例,直接要求模型完成任務,依賴模型從預訓練中習得的通用能力。「少樣本(Few-shot)」:在 prompt 中提供 k 個輸入-輸出的示範範例(通常 1~10 個),讓模型從範例中推斷任務格式和要求,再回答新問題。這兩者都不涉及模型參數的更新(不是微調),是純粹在推論時透過 prompt 設計改變模型行為的「情境學習(in-context learning)」技術。
一位工程師在建立語義搜尋系統時,選擇使用 768 維的嵌入向量(embedding)表示每個文件。同事問他:「這個 768 維向量中的每個數字代表什麼?」請問最準確的解釋是什麼?
嵌入向量(Embedding)是一種「密集數值表示(dense numerical representation)」,其中每個維度並不對應一個人類可解釋的概念(選項 A 描述的是理想化的可解釋特徵,實際上不成立)。實際上,嵌入向量的每個維度是模型在訓練過程中自動學習到的「抽象潛在特徵(latent features)」,多個維度共同作用才能表達語意。整個向量在高維空間中的位置和方向,代表了文字的語義——語意相似的文字在這個空間中相距較近(餘弦相似度高)。
一個二元分類資料集包含 90% 的負類(正常交易)和 10% 的正類(詐欺交易)。工程師使用隨機分割(random split)將資料分為訓練集和測試集,但測試集中正類樣本比例只有 6%。請問應使用哪種技術來確保訓練集和測試集的類別比例與原始資料一致?
「分層抽樣(Stratified Sampling)」確保在資料集分割時,每個子集(訓練集、驗證集、測試集)中各類別的比例與原始資料集完全一致。若原始資料集正類佔 10%,分層抽樣後的訓練集和測試集也各自保持 10% 的正類比例。這對不平衡資料集尤其重要——若測試集類別比例偏斜,評估指標(如 AUC)會失去代表性,無法真實反映模型在實際部署中的表現。在 scikit-learn 中,`train_test_split(..., stratify=y)` 即可實現分層抽樣。
一名工程師在訓練深度神經網路時,觀察到訓練損失持續下降,但驗證損失在第 15 個 epoch 後開始上升。他決定採用「早停(Early Stopping)」技術。請問早停的機制是什麼,以及它解決了什麼問題?
「早停(Early Stopping)」是防止過擬合(overfitting)的正規化技術。其機制:訓練過程中持續監控驗證集損失;當驗證損失在連續 k 個 epoch 內沒有改善(稱為 patience)時,停止訓練並回滾到驗證損失最低時的模型參數。這個方法的直覺是:訓練損失持續下降但驗證損失開始上升,表示模型開始「死背」訓練資料而非學習通用規律,此時應立即停止。早停相當於隱式的正規化,且不需要修改模型架構或損失函數。
一名資料科學家使用隨機森林(Random Forest)對高方差的決策樹模型進行集成。他的同事問:「Bagging 技術主要減少的是模型誤差的哪個來源?」請選擇正確答案。
Bagging(Bootstrap Aggregating)的核心效果是「降低變異數(reduce variance)」。它的做法是:從訓練資料有放回地抽取多個子集(bootstrap samples),在每個子集上獨立訓練一個基礎模型(如決策樹),最後將所有模型的預測結果平均或多數投票。由於每個基礎模型在略有不同的資料子集上訓練,各模型的誤差彼此不相關,集成後能顯著降低預測的方差。偏差(bias)基本不受影響,因為基礎模型的預測能力沒有改變。對比 Boosting——它主要降低偏差(reduce bias)。
一位工程師在評估集成學習方法時,討論到 Boosting 技術(如 XGBoost、AdaBoost)的主要功效。Boosting 與 Bagging 的核心區別在於它們分別針對模型誤差的不同來源。請問 Boosting 主要降低的是什麼?
Boosting 的核心機制是「序列式誤差修正(sequential error correction)」,主要降低「偏差(bias)」。每輪訓練一個新的弱學習器,並加重前一個模型預測錯誤的樣本的權重(AdaBoost),或直接擬合前一個模型的殘差(Gradient Boosting)。透過這種序列堆疊,模型逐步修正系統性錯誤,偏差持續降低。但 Boosting 並不降低方差,甚至可能增加過擬合風險(因此需要 shrinkage、子採樣等正規化手段)。這與 Bagging 主要降低方差形成互補,是集成學習設計的重要概念。
一家自動駕駛公司訓練物件偵測模型,系統不僅需要正確識別物件類別,還需要精確定位邊界框(bounding box)的位置。評估定位精度時,工程師使用了一個特定指標。請問這個指標是什麼,以及如何計算?
「交並比(IoU, Intersection over Union)」是物件偵測中評估邊界框定位精度的標準指標。計算方式:IoU = 預測框與真實框的交集面積 / 預測框與真實框的聯集面積。IoU = 1.0 表示預測框與真實框完全重疊;IoU = 0 表示完全不重疊。實際應用中,常設 IoU ≥ 0.5 作為正確偵測的閾值(稱為 mAP@0.5)。IoU 同時評估了位置和大小兩個面向的準確性,比單純的座標距離(D)更直觀合理。
一位資料科學家想要探索一個包含 500 個維度的客戶行為嵌入向量資料集,並在二維平面上直觀呈現不同客戶群的聚集狀況。他選擇了一種非線性降維技術,能夠保留資料點之間的局部鄰近關係。請問這個技術最可能是什麼?
「t-SNE(t-distributed Stochastic Neighbor Embedding)」是最廣泛用於「高維資料視覺化」的技術。其核心思想:在高維空間中,以高斯分佈建模鄰近點的相似性;在低維(2D/3D)空間中,以 t 分佈建模相似性(使用 t 分佈解決「擁擠問題」);透過最小化兩個分佈之間的 KL 散度,讓相似點在低維空間中聚在一起。t-SNE 非常擅長呈現局部聚類結構,廣泛用於 NLP 嵌入視覺化、細胞類型分析等。注意:t-SNE 結果僅用於視覺化探索,不適合作為下游任務的特徵。
一名工程師在訓練一個 50 層的深度 RNN 模型處理長文本序列時,發現模型訓練幾乎無法進行:前幾層的梯度接近於零,參數幾乎沒有更新,模型無法學習長距離依賴關係。請問這個現象叫做什麼,最常見於哪類模型?
「梯度消失(Vanishing Gradient)」是深度神經網路和 RNN 訓練中的核心挑戰。原因:在反向傳播時,梯度需要透過鏈式法則從輸出層傳遞到輸入層。若激活函數(如 sigmoid、tanh)的導數值小於 1(例如 sigmoid 導數最大值為 0.25),則多層相乘後梯度呈指數級衰減趨近於零,導致淺層參數幾乎無法更新。RNN 在時間維度上相當於極深的網路,特別容易受梯度消失影響。解決方案包括:使用 LSTM/GRU 的閘控機制、ResNet 的殘差連接、使用 ReLU 激活函數、以及 Transformer 的注意力機制。
在設計深度神經網路時,工程師選擇在隱藏層使用 ReLU(Rectified Linear Unit)激活函數,而非傳統的 sigmoid 或 tanh。請問 ReLU 相較於 sigmoid 和 tanh 的主要優勢是什麼?
ReLU(f(x) = max(0, x))的兩大核心優勢:(1)「緩解梯度消失」:ReLU 在 x > 0 時的導數恆為 1,不會像 sigmoid(最大導數 0.25)或 tanh(最大導數 1,但多數值小於 1)那樣讓梯度指數衰減,使深層網路也能有效訓練;(2)「計算高效」:ReLU 只需判斷正負,計算複雜度極低,相比 sigmoid 需要計算指數函數,大幅加快訓練速度。ReLU 的已知問題是「dying ReLU」(x 恆負時梯度為 0),可用 Leaky ReLU 改善。sigmoid 和 tanh 在其定義域內都是可微的(D 說法錯誤)。
一位深度學習初學者問:「神經網路是怎麼知道該如何調整權重的?」工程師說明了反向傳播(Backpropagation)的作用。請問反向傳播的核心目的是什麼?
「反向傳播(Backpropagation)」是神經網路訓練的核心演算法,目的是「計算梯度以更新權重」。完整的訓練步驟是:(1)前向傳播(Forward pass):輸入資料通過網路,計算輸出和損失值;(2)反向傳播(Backward pass):利用微積分的「鏈式法則(chain rule)」從輸出層逐層向後計算損失函數對每個權重的偏微分(梯度)∂L/∂w;(3)參數更新:將梯度傳給優化器(如 SGD、Adam),按學習率更新各層權重 w = w - lr × ∂L/∂w。反向傳播解決了「如何高效計算所有層梯度」的問題,是深度學習得以實現的數學基礎。
一家醫療新創公司正在訓練 AI 模型處理病患資料,擔心模型會「記住」特定病患的敏感資訊。以下哪一種技術最能有效防止模型對個別樣本的過度記憶?
差分隱私在訓練過程中向梯度加入受控噪音,使模型無法精確記住任何單一樣本,是訓練階段保護個資的核心技術。Dropout 是防止過擬合而非隱私保護;資料擾動和使用開源模型都無法直接解決模型記憶問題。
一位工程師正在訓練交通號誌辨識模型,發現訓練資料中的照片角度單一、解析度不均,導致模型準確率偏低。最應優先採取哪一項改善措施?
資料增強透過人工製造多樣化訓練樣本(旋轉、翻轉、亮度變化等),讓模型學習在各種條件下的一致特徵,有效提升模型魯棒性與泛化能力,是解決資料多樣性不足的首選策略。
某醫院在官網部署了一個 AI 聊天機器人回答病患健康問題,但機器人回覆時從未告知使用者這是 AI 系統。此做法最可能違反哪一項原則?
對話式 AI 屬於「有限風險」系統,依據 EU AI Act 及一般倫理規範,使用者應被明確告知正在與 AI 互動,這是透明性原則的基本要求,也保障使用者的知情決策權。
一家銀行的信貸審核 AI 模型在審查某特定族群申請時,錯誤拒絕率比其他族群高出 30%,且開發團隊沒有針對此問題進行補救。這種情況最可能導致?
特定族群錯誤率偏高代表模型存在系統性偏見(bias),這會對受影響族群造成不公平的決策結果,違反公平性(Fairness)原則,可能引發法律責任與社會信任危機。
一家律師事務所想讓 AI 助理能精確理解法律專業術語(如「要約承諾」、「侵權責任」),以提升合約審查準確度。以下哪一策略最有效?
領域特定微調讓預訓練語言模型在法律語料上進一步學習,使模型對專業術語的語意更敏感,是提升特定領域 NLP 應用準確率最有效率的策略,無需從頭訓練即可獲得顯著改善。
一家科技公司建立了 AI 模型審查流程。以下哪一項「不屬於」該審查流程的設計目的?
AI 治理的模型審查流程著重於風險控管、透明性與偏見識別,目的是確保模型安全可靠,而非追求最大部署速度。事實上,審查流程往往需要放慢部署節奏,以換取更高的品質保證。
資料科學家在正式建模前,通常會先對資料集進行探索性資料分析(EDA)。以下哪一項是 EDA 的核心任務?
EDA 的核心在於透過統計圖表(如直方圖、散點圖、箱型圖)理解資料分布、找出異常點、發現特徵間的潛在關係,這些洞察是後續特徵工程與模型選擇的重要依據。
一位分析師使用 K-means 對客戶行為資料進行分群,但每次執行結果的群組組成都不一樣,造成後續分析困難。最可能的原因是?
K-means 演算法對初始群心的選擇高度敏感,不同的隨機初始化可能導致收斂到不同的局部最佳解,產生不一致的分群結果。常見解法是多次執行取最佳結果,或使用 K-means++ 改善初始化策略。
一家廣告公司要求 AI 文案工具產生更多元、更具創意的廣告標語,而非每次給出相同的答案。應調整哪些生成參數來達到這個目標?
Temperature 控制輸出的隨機程度,數值越高模型越傾向探索低機率的詞彙;top-p(nucleus sampling)則決定候選詞彙的累積機率範圍。兩者同時提高能讓模型產生更多樣化、富有創意的內容,適合廣告文案等創意應用。
一家法律科技公司希望自動分析合約條款並標記高風險條款(如賠償上限、免責聲明)。以下哪一種模型架構最適合此任務?
BERT 能將條款文本轉換為富含語意的嵌入向量,捕捉詞彙間的上下文關係;搭配分類層可有效辨識風險等級。SVM 無法直接處理原始文字,GAN 用於生成而非分類,Clustering 屬非監督式學習無法直接輸出預定義的風險標籤。
在設計影像辨識模型時,若希望模型能學習到圖像中物件的空間位置關係與局部紋理結構,哪一種神經網路層最能發揮關鍵作用?
卷積層透過可學習的濾波器(filter)在圖像上滑動,提取局部空間特徵(如邊緣、紋理、形狀),是 CNN 架構中負責「看懂」影像結構的核心元件。全連接層用於最終分類,池化層用於降維,Dropout 用於正規化。
一家出版平台計畫部署生成式 AI 自動撰寫新聞摘要,法務團隊要求確保輸出內容不違反著作權法及新聞倫理。以下哪一設計方向最為恰當?
控管生成式 AI 的法律合規性,最有效的方法是在輸出後加入稽核流程,並結合經授權的參考資料庫,確保生成內容有合法來源依據,同時過濾可能侵權或虛假的內容。單純限制模型能力或輸出格式無法解決根本的合規問題。
在強化學習(Reinforcement Learning)中訓練自動駕駛決策系統時,發現獎勵訊號往往在採取行動數秒後才能收到(例如是否成功避開障礙物)。這種「延遲回饋」特性最直接影響哪一部分的學習?
強化學習中延遲的獎勵訊號使智能體難以準確將特定行動與最終結果關聯(信用分配問題,Credit Assignment Problem),導致策略更新困難、收斂緩慢。這是時序決策任務中的核心挑戰之一。
某金融機構的 AI 貸款審核系統做出了一筆錯誤拒貸決定,但系統無法提供任何可理解的決策理由,也沒有相關紀錄。該機構最需要強化哪一方面?
負責任 AI 要求決策系統具備可解釋性,讓受影響的當事人理解決策依據;同時需保存稽核紀錄,以便在出錯時追溯原因、承擔責任並改善系統。缺乏這兩者將違反 AI 問責性原則,並可能面臨法規處罰。
使用者反映一個 AI 招募助理在評估應聘者時,回覆中帶有對特定性別的偏見傾向。開發團隊應優先採取哪一步驟?
AI 模型的偏見大多源自訓練資料中存在的歷史性偏差或代表性不足。要解決輸出偏見,必須首先深入分析訓練語料的來源與分布,識別偏誤根源,再進行資料調整或重新標注,才能從根本改善模型的公平性。
在機器學習專案流程中,「特徵工程」(Feature Engineering)階段的主要目的是什麼?
特徵工程是透過領域知識和技術手段,將原始資料轉化為對模型最有幫助的輸入特徵,包含特徵選取、組合、轉換等操作。良好的特徵工程往往比選擇複雜模型更能有效提升預測準確率。
一家設計公司計畫使用 AI 圖像生成工具製作商業廣告素材,法務部門要求評估智慧財產權風險。最應優先關注哪一面向?
生成式 AI 的著作權風險核心在於訓練資料的合法性。若模型使用了未獲授權的受保護圖像進行訓練,其生成的圖像可能在法律上構成對原創作者著作權的侵害,這是目前生成式 AI 產業面臨的重要法律爭議之一。
一個客服 NLP 系統使用 Word2Vec 詞向量,但在處理「蘋果(公司)發表新產品」和「蘋果(水果)產季到了」這兩個句子時,對「蘋果」這個詞的理解毫無差異。這反映了 Word2Vec 哪一根本限制?
Word2Vec 為靜態詞嵌入模型,每個詞只有一個固定向量表示,無論出現在什麼語境,「蘋果」的向量都相同。這使其無法區分多義詞在不同語境下的語意差異。BERT 等動態嵌入模型可根據上下文為同一詞生成不同向量,有效解決此問題。
某博物館展覽應用中,AI 系統能夠接收一幅油畫的圖片,自動產生一段符合畫作風格與內容的文字描述。這項技術屬於哪一個 AI 領域?
從圖像生成文字描述屬於跨模態生成任務,需要模型同時理解視覺(圖像)與語言(文字)兩種模態的資訊,並在兩者之間建立語意橋接。這是生成式 AI 的前沿研究領域,代表技術包含 CLIP、GPT-4V 等多模態模型。
一個 AI 品質檢測模型在工廠的高效能伺服器上推論速度極快,但部署到現場的平板電腦後速度明顯變慢,難以滿足即時需求。最可能的原因是?
推論速度受目標裝置的 CPU/GPU 規格、記憶體大小及是否支援硬體加速推論框架(如 TensorRT、ONNX Runtime、CoreML)等因素影響。伺服器與邊緣裝置的硬體差異是造成速度落差的根本原因,需針對目標裝置進行模型優化。
一家法律事務所想用 GPT 模型協助律師審查法規文件,但擔心模型產生不準確的法條引用。以下哪一策略最能提升輸出的可信度與準確性?
檢索增強生成(RAG, Retrieval-Augmented Generation)在生成回答前先從可信的知識庫中檢索相關文件片段,再將其作為上下文提供給語言模型,有效降低「幻覺」(hallucination)問題,確保引用的法條和內容有真實依據,是提升法律 AI 應用可靠性的最佳實踐。
一家歐盟總部的企業計畫收集歐洲用戶的行為資料來訓練推薦模型。在 GDPR 框架下,以下哪一項是最關鍵的合規要求?
GDPR 的核心原則包含:資料最小化(只收集必要資料)、目的限制(只用於明確告知的用途)以及被遺忘權(用戶可要求刪除其個人資料)。這些要求直接影響 AI 訓練資料的收集、存儲與管理方式,是歐盟業務的重要合規事項。
一個醫療影像分類模型在常見疾病的辨識上表現優異,但在罕見疾病的分類上準確率極低,原因是訓練資料中罕見疾病樣本極少。以下哪一處理方式最能改善此問題?
GAN 可以學習少量真實樣本的分布特徵,生成高品質的合成資料,有效擴增罕見類別的訓練樣本數量,緩解資料不平衡問題。這是處理醫療、金融等領域中罕見事件分類問題的創新解法,比直接移除類別或調整模型架構更從根本解決問題。
一個信用卡詐騙偵測 AI 系統中,誤報(將正常交易誤判為詐騙)和漏報(將詐騙交易誤判為正常)的代價都很高。以下哪一指標最適合作為主要評估標準?
詐騙偵測是典型的不平衡資料集分類問題,正負樣本比例懸殊。整體準確率容易被多數類主導而產生誤導。F1 分數是 Precision(精確率)與 Recall(召回率)的調和平均,同時考慮誤報與漏報,更適合評估不對稱成本場景下的模型效能。
一個在實驗室環境訓練的工業機器人 AI,在部署到實際生產線後,因環境燈光、設備排列略有不同,就無法完成原本熟練的任務。這反映出模型哪一方面的不足?
泛化能力是指模型在未見過的資料或環境中維持良好表現的能力。泛化能力不足的模型只能在與訓練環境高度相似的條件下運作,稍有差異就會失效。提升泛化能力需要多樣化的訓練資料、適當的正規化技術和領域適應(Domain Adaptation)策略。
一家公司正在建立 AI 模型的生命週期管理規範。以下哪一項「不屬於」標準的模型管理最佳實踐?
模型中間層的權重對後續的可解釋性分析、模型診斷和遷移學習具有重要價值,不應輕易刪除。完整的模型生命週期管理應保留版本記錄、評估結果和模型快照,以支援問題追溯、回滾和持續改善。
一個企業內部的 AI 問答助理常常給出聽起來合理但實際上錯誤的回答(幻覺問題)。以下哪一種架構整合最能有效提升其知識正確性?
RAG 架構在生成回答前先從可信知識庫(如企業文件、產品手冊)中檢索相關段落,作為語言模型生成答案的參考依據,有效降低模型「憑空捏造」的幻覺問題,確保答案有真實文件支撐,是企業知識問答應用的主流解決方案。
在評估 AI 招募系統的公平性時,稽核人員發現「Equal Opportunity」指標的數值在男性和女性應聘者之間存在明顯差距。這個指標實際上在衡量什麼?
Equal Opportunity(機會平等)是公平性度量指標之一,專注於比較不同群體中正樣本(真正符合條件的人)被模型正確識別的機率(True Positive Rate / Recall)是否相同。若女性符合條件者的 TPR 低於男性,即使整體準確率相同,模型仍存在對女性的系統性歧視。
一家電商平台的商品推薦模型在半年前表現優異,但近期推薦點擊率持續下滑,分析發現用戶購買行為模式已發生改變。應優先啟動哪種應對機制?
資料漂移是指實際使用資料的分布逐漸偏離訓練資料,導致模型效能隨時間退化。應對策略包含:建立指標監控看板、設定漂移偵測閾值,以及在偵測到顯著漂移時自動觸發模型再訓練流程,確保模型持續反映最新的資料模式。
一個 AI 寫作助理能夠創作出優美的詩詞和散文,但當使用者詢問「台灣 2024 年總統選舉結果」這類事實性問題時,答案往往不準確。最可能的原因是?
語言模型的能力很大程度上取決於訓練語料的組成。若訓練資料以文學、創作類內容為主,模型會在風格模仿和創意表達上表現出色,但對事實性知識(如歷史事件、科學數據)的掌握則會相對薄弱,無法可靠地回答需要精確知識的問題。
一個銀行貸款審核 AI 主要根據過去十年批准貸款者的歷史資料進行訓練。這種做法最可能引發哪種風險?
歷史性偏見(Historical Bias)是指訓練資料本身就反映了過去社會中存在的不公平現象(如特定族群因歷史原因較難獲得貸款),模型學習這些模式後會在新的申請中重現並強化這些歧視,形成惡性循環。這是 AI 公平性研究中的重要議題。
當設計師使用 ChatGPT 創作故事時,希望每次得到不同風格和情節的回覆;而客服人員使用相同工具回答政策問題時,希望答案前後一致。控制這兩種需求的關鍵參數是?
Temperature 是控制生成文字隨機程度的核心參數。較高的 Temperature(如 0.9~1.2)使模型更傾向探索低機率的詞彙選擇,輸出更多樣、更有創意;較低的 Temperature(如 0.1~0.3)使模型趨向最高機率的選擇,輸出更保守、穩定,適合需要一致性的應用場景。
使用 BERT 模型進行客戶評論情感分析(正面、負面、中性三分類)時,模型最終如何輸出分類結果?
BERT 在輸入序列開頭插入特殊的 [CLS] token,其對應的最後隱藏層輸出被視為整個序列的語意表示。在分類任務中,將此向量輸入全連接(Linear)分類層,再經過 Softmax 轉換為各類別的機率分布,取最高機率者作為預測結果。這是 BERT 進行句子分類的標準架構。
一個行動應用程式在用戶首次安裝時要求取得廣泛的資料授權,但授權同意書中只寫「用於改善服務」,未詳述具體用途。此做法最可能違反?
GDPR 要求資料控管者在收集個人資料前,必須向用戶清楚說明資料的具體使用目的、保存期限和處理範圍(透明性原則),且只能收集達到目的所必需的最少量資料(資料最小化原則)。模糊的「改善服務」描述違反了這兩項核心要求。
在卷積神經網路(CNN)的架構中,池化層(Pooling Layer)扮演什麼主要角色?
池化層(常見如最大池化 Max Pooling)透過在局部區域取最大值或平均值,縮減特徵圖的寬高,達到降維效果。這一方面減少後續層的參數數量、加速運算;另一方面提供局部平移不變性(Local Translation Invariance),使模型對小幅位移更具魯棒性。
一家公司的內部 AI 助理遭到惡意用戶透過精心設計的提示詞(Prompt Injection 攻擊),誘使模型洩露其訓練語料中的敏感企業資訊。開發團隊應優先強化哪一設計?
Prompt Injection 是針對生成式 AI 的攻擊手法,攻擊者透過特殊格式的輸入覆蓋系統指令或誘導模型執行未授權操作。有效防護措施包含:輸入驗證與清理、系統訊息與用戶輸入的嚴格隔離、輸出內容的敏感資訊過濾,以及部署輸入/輸出安全護欄(guardrails)。
某城市的 AI 交通罰款系統在做出罰款決定後,市民無法得知系統依據什麼理由作出判斷,也沒有申訴管道。這違反了負責任 AI 的哪一項核心原則?
問責性原則要求 AI 系統的決策應能被追溯、說明,並為受影響者提供申訴和補救的機制。當 AI 做出影響個人權益的決定時,當事人有權了解決策依據並提出異議。缺乏這一機制不僅違反倫理,在許多司法管轄區也構成違法。
一個在英文語料上訓練的情感分析模型,部署到多語系客服平台後,在處理中文、日文評論時效能大幅下降。這個問題最準確的歸因是?
模型在特定語言訓練後,其語義表示空間是針對該語言優化的。當輸入切換到結構差異大的語言時,訓練語料的分布偏移(Distribution Shift)會導致效能顯著下滑。解決方案包括使用多語言預訓練模型(如 mBERT、XLM-RoBERTa)或針對目標語言進行微調。
在使用 Autoencoder 進行高維用戶行為資料的特徵學習時,「瓶頸層」(Bottleneck Layer)的核心功能是什麼?
Autoencoder 由 Encoder(編碼器)和 Decoder(解碼器)組成,瓶頸層位於兩者之間,是維度最低的隱藏層。其功能是強制模型將輸入壓縮為最精簡的特徵表示,過濾冗餘資訊,保留資料的本質結構。這個壓縮後的潛在向量可用於降維、異常偵測或資料生成。
AI 歷史上,1980 年代曾出現「專家系統」熱潮,但最終未能廣泛商業化。其最根本的技術瓶頸是什麼?
專家系統依賴知識工程師(Knowledge Engineer)與領域專家合作,將專業知識手動編寫為 IF-THEN 規則。這個過程耗時耗力,且隨著知識庫規模擴大,規則間的衝突和維護成本呈指數級增長,成為阻礙其大規模推廣的核心技術瓶頸,促使 AI 社群轉向以資料驅動的機器學習方法。
一個人才媒合 AI 平台的效能評估顯示,系統對某些性別的候選人推薦成功率明顯偏低。開發團隊應優先採取什麼行動?
AI 系統的公平性問題通常源於訓練資料的代表性不足——某些群體的樣本數量過少或多樣性不足,導致模型對這些群體的預測能力偏弱。優先應分析資料分布,識別不平衡的族群,再透過過採樣、資料增強或收集更多代表性樣本來改善。
某 AI 新聞摘要工具有時會生成看似合理、實際上完全錯誤的「假新聞式」摘要,引發讀者混淆。這種問題在 AI 領域被稱為「幻覺」(Hallucination),其主要成因是?
大型語言模型的「幻覺」問題根源在於模型的訓練目標是預測下一個詞的機率,而非保證輸出的事實正確性。當訓練語料缺乏高品質的事實知識或包含大量錯誤資訊時,模型容易「流暢地生成」看似合理但實際上是杜撰的內容,尤其在缺乏事實依據的情況下。
一家製造業公司計畫引入 AI 系統來優化供應鏈管理。在 AI 導入流程的最初「問題定義」階段,核心任務應該是什麼?
AI 導入流程中,問題定義階段是整個專案成敗的基石。必須先回答「要解決什麼業務問題」、「有哪些限制(資料、法規、預算)」、「何謂成功(KPI、準確率門檻)」,才能有方向地進行後續的資料收集、模型選型和評估設計。跳過此步驟往往導致資源浪費。
一家半導體設備製造商希望 ChatGPT 能準確回答高度專業的設備維護問題,但發現一般預訓練模型對其產品規格知識一無所知。建議採用哪一技術策略?
通用預訓練模型缺乏特定企業的產品知識。解決方案有兩種:一是使用企業資料進行 Fine-tuning(微調),讓模型「記住」專業知識;二是建立 RAG 架構,在每次查詢時即時從企業知識庫檢索相關文件提供給模型。兩者各有優缺點,RAG 更易於知識更新維護。
在訓練自動倉儲機器人使用強化學習時,「策略(Policy)」這個概念指的是什麼?
在強化學習中,策略(Policy)是從狀態(State)到動作(Action)的映射函數,決定了智能體在任何給定情況下的行為方式。策略可以是確定性的(特定狀態固定對應某動作)或隨機性的(輸出動作的機率分布)。學習一個好的策略是強化學習的核心目標。
一個三年前部署的醫療影像診斷 AI,近期被發現對最新型號掃描儀器產生的影像準確率持續下滑,但系統一直未進行任何更新。根本問題最可能是?
AI 模型在部署後隨著醫療設備升級、掃描協議改變,輸入資料的特性會逐漸偏離訓練時的分布(即資料漂移)。缺乏持續監控和定期再訓練機制,模型無法適應這些變化,效能自然隨時間退化。負責任的 AI 部署需要建立完整的模型生命週期管理機制。
一個企業用 GPT 模型建立的自動化客服系統遭到用戶嘗試透過 Prompt Injection 攻擊,試圖讓 AI 洩露其他用戶的訂單資訊。以下哪一防護措施最為有效?
Prompt Injection 攻擊利用用戶輸入覆蓋或繞過系統指令。最有效的防護策略是:在系統訊息中明確限定模型的職責範圍和禁止行為;在接受用戶輸入前進行語義過濾,識別並阻止試圖操控系統行為的惡意指令;以及對輸出進行敏感資訊過濾,防止資料洩露。
一個在少量精選樣本上訓練的 AI 文章分類模型,在實驗室評估時準確率達 95%,但部署到包含數百萬篇真實文章的生產環境後,效能大幅下滑。最可能的根本原因是?
這是過擬合(Overfitting)的典型表現:模型過度學習了少量精選樣本的特有模式(包含噪音和偏差),泛化能力不足,面對真實環境中更豐富、更多樣的資料分布時效能大幅下滑。解決方案包括:增加訓練資料多樣性、使用正規化技術、採用交叉驗證等策略。
一家保險公司的 AI 理賠審核系統做出了一項有爭議的拒賠決定,但查詢系統後發現沒有任何決策紀錄、無法還原推論過程。這個缺陷違反了 AI 治理的哪一項原則?
負責任 AI 要求系統具備可追溯性(Traceability)和審計能力(Auditability):每一個重要決策都應有完整記錄,能夠事後重現推論過程,讓監管機構、受影響方和開發者能夠追究責任並找出錯誤根源。缺乏這一能力使企業無法在出錯後承擔並改善,也無法通過合規審查。
資料工程師發現某份客戶資料集中,「電話號碼」欄位在不同系統匯入的資料中有三種不同命名(phone、phone_number、電話),且格式各異。清洗時應優先進行哪一操作?
欄位命名不一致和格式混亂會使模型學習到混淆的特徵,降低準確率。資料清洗時應首先解決欄位一致性問題:統一命名規則、標準化資料格式,確保同一語意的資訊只用一個規範欄位表示,這是資料品質管理的基本步驟。
GPT 系列模型在訓練時採用「因果語言模型」(Causal Language Modeling)策略。這意味著模型在生成文字時具備哪種特性?
因果語言模型(CLM,也稱自回歸語言模型)的核心特性是單向性:在預測位置 t 的詞時,模型只能利用位置 1 到 t-1 的資訊,無法看到後面的詞。這使 GPT 天然適合文字生成任務(從左到右生成),與 BERT 的雙向設計形成對比。
一個 AI 藝術創作系統在生成人像圖片時,臉部細節(如眼睛、頭髮絲)經常模糊不清、結構異常。應優先考慮哪一技術改善?
擴散模型(如 Stable Diffusion)透過逐步去噪過程生成圖像,在細節還原上表現優秀。高頻重建損失(如感知損失 Perceptual Loss)能專門懲罰細節結構的偏差,引導模型更精確地重建邊緣、紋理等高頻資訊,是改善生成圖像細節品質的主流技術。
一家醫療保險公司部署了 AI 理賠審核系統,但理賠人員反映無法理解 AI 為何拒絕某些申請,導致難以向客戶解釋。企業應如何應對?
提升 AI 系統的可解釋性是讓使用者理解並信任 AI 決策的關鍵。可透過 LIME、SHAP 等可解釋 AI 技術提取主要決策因素,以人類可理解的語言呈現,讓理賠人員能向客戶提供合理說明,同時符合監管要求。
一家物流公司希望在倉儲中部署 AI 視覺辨識系統識別貨物損壞,但所有邊緣運算裝置的記憶體和運算能力都很有限。最適合採用哪一策略?
模型剪枝透過移除貢獻度低的神經元和連接來縮減模型大小;量化將浮點數參數轉換為較低精度(如 INT8),降低記憶體佔用和計算量。這些輕量化技術搭配 TensorFlow Lite 等邊緣部署框架,使大型 AI 模型能在資源受限的 IoT 裝置上高效運行。
一家電信公司將 ChatGPT 部署於客服中心,但客戶反映 AI 的回覆語氣過於冷漠,缺乏溫度,與品牌親和的形象不符。應優先調整哪一方面?
模型的語氣和表達風格受訓練語料的風格偏向以及系統提示詞的指令設定影響。透過加入品牌化的客服對話樣本進行 Fine-tuning,或在系統提示詞中明確指定以溫暖、專業的語氣回應,都能有效調整模型語調風格,使其符合品牌形象。
一個 AI 專案因為時程壓力,在尚未完成模型選型評估的情況下就直接進入系統部署階段。這種做法最可能造成什麼後果?
模型選型是 AI 專案的關鍵決策點,需要根據業務問題類型、資料特性、效能需求和資源限制選擇適當的演算法和架構。跳過此步驟直接部署,往往在上線後才發現模型根本不適合業務場景,造成資源浪費,被迫重新從選型階段開始。
某 AI 助理能夠理解使用者上傳的產品圖片,並自動生成對應的產品說明文字。這個系統最可能採用了哪一種架構?
能夠同時理解圖像並生成文字的系統需要多模態架構:視覺編碼器(如 ViT)將圖像轉換為視覺特徵向量,語言解碼器(如 GPT)根據這些視覺特徵生成描述文字。兩者透過跨模態注意力機制連接,代表技術包含 GPT-4V、LLaVA 等多模態大型語言模型。
一個 AI 信貸評估系統可以追蹤每一筆預測錯誤,識別出造成錯誤的主要特徵,並生成改善建議報告。這代表該系統落實了 AI 治理的哪一項原則?
能夠追蹤預測錯誤來源並提供改善依據,是問責性(能夠為決策承擔責任並解釋原因)與可解釋性(能夠說明模型決策邏輯)的具體實踐。這兩項原則確保 AI 系統在出錯時可被追責、可被改善,是負責任 AI 的核心要求。
一家 AI 新創公司的競爭對手透過大量 API 查詢,逐漸還原出公司核心模型的決策邊界,進行模型竊取攻擊。應優先採取哪一防護措施?
模型竊取攻擊(Model Stealing Attack)透過查詢目標模型的輸出推斷其內部決策邏輯。防護策略包含:在輸出中加入適量隨機噪音(使輸出無法精確反映決策邊界)、對查詢頻率異常的 IP 進行限速或封鎖、使用對抗訓練提高模型對刻意設計查詢的抵抗力。
一個法律文件分析系統使用 Word2Vec 詞向量,在處理「執行」這個詞時,無法區分它在不同語境下「履行合約義務」或「執行死刑」的不同含義。這反映了 Word2Vec 的哪一根本限制?
Word2Vec 是靜態詞嵌入模型,訓練完成後每個詞只對應一個固定的向量,無論出現在什麼語境。這使其無法處理多義詞(polysemy)的語境差異。BERT 等動態嵌入模型能根據上下文為同一詞生成不同向量,有效解決此問題。
一家政府機關採購部門希望使用生成式 AI 輔助撰寫政府採購招標文件,要求確保內容符合採購法規且引用案例真實可查。以下哪一設計最能控管風險?
政府採購文件的準確性和合法性要求極高。RAG 架構讓模型在生成每個部分時先從法規資料庫檢索相關條文,確保引用的依據真實存在。這種先查閱再生成的方式顯著降低幻覺風險,使生成內容有明確的法規來源支撐,便於人工審核和法遵查核。
資料科學家將不同來源的房價資料整合後,直接送入線性回歸模型訓練,發現模型收斂非常慢且最終準確率不理想。最可能的問題是什麼?
特徵標準化(如 Z-score 正規化、Min-Max 縮放)確保所有特徵在同一量級範圍內。若特徵尺度差異懸殊,梯度下降更新時大量級特徵會主導梯度方向,小量級特徵幾乎無法被學習,導致收斂困難和模型偏差。
一個 AI 驅動的信用評分系統被部署於銀行,法規要求所有高風險決策(如拒絕貸款)必須有人類監督機制。以下哪一做法最符合「人類監督」的實作要求?
人類監督原則要求在高風險 AI 應用中保留人工介入能力,特別是對可能嚴重影響個人權益的決策。最佳實踐是人機共決:AI 處理大量案件並標記高風險案例,人工審核員專注於 AI 不確定或高風險的決策,兼顧效率與安全性,符合 EU AI Act 等監管要求。
一個 AI 醫療診斷系統不僅輸出「疾病類別」,同時提供每個診斷的信心分數(如「肺炎:87%,支氣管炎:11%,正常:2%」)。這種設計主要有助於強化什麼?
提供信心分數讓使用者了解模型對各個預測的確信程度,能有效輔助人類決策:信心高時可作為重要參考,信心低時提示需要額外確認。這提升了 AI 決策的透明度,使醫師能夠更好地評估是否採納 AI 建議,是可解釋 AI 的重要實踐。
某公司的 AI 客服機器人遭到用戶嘗試誘導,試圖讓它聲稱自己是真人、偽造產品保固資訊。企業應採取哪一應對策略?
防範 AI 被誘導進行不當行為,需要在系統層面建立語境識別機制:分析用戶輸入的意圖模式,識別試圖誘導模型進行角色扮演、生成錯誤資訊或繞過安全限制的行為,並在偵測到高風險意圖時中止或重定向對話,同時記錄可疑交互以供後續審查。
在訓練深度神經網路時,為什麼要使用 Dropout 技術?
Dropout 在每次訓練迭代中隨機將一定比例的神經元輸出設為零,強制模型不能依賴任何單一神經元或特定路徑,促使多個子網路共同學習,提升特徵表示的泛化能力。推論時所有神經元都啟用,是深度學習中最常用的正規化技術之一。
一個自駕車 AI 感知系統在測試中發現,當攝像頭前放置一張印有特殊圖案的貼紙時,系統會把「停止」標誌誤判為「限速 45」標誌。這個現象最可能反映哪類 AI 安全風險?
這是典型的對抗樣本(Adversarial Attack)現象:攻擊者透過精心設計的微小擾動,使 AI 系統產生嚴重誤判。這揭示了深度學習模型在某些特定輸入下的脆弱性,在自駕車等安全關鍵應用中具有重大隱患,需要對抗訓練等防禦技術應對。
一個市場研究公司希望用 AI 自動發現客戶評論中存在的不同主題群組,但沒有任何預先標注的主題標籤資料可用。應選擇哪一類機器學習方法?
非監督式學習不依賴標注資料,而是自動從資料中發現隱藏的結構和模式。主題模型(如 LDA)和聚類演算法(如 K-means)是典型的非監督式學習方法,適合用於探索性分析,在沒有任何標籤的情況下找出資料中自然存在的群組或主題。
一家上市公司計畫使用 GPT 輔助撰寫公司年度法規遵循報告。法規部門最應提出哪些要求?
法規遵循報告屬於高敏感應用,任何錯誤引用都可能帶來重大法律責任。關鍵要求包含:每個法規陳述必須可追溯至具體法條或官方文件,建立人工審核流程確認 AI 輸出的準確性,以及保存完整的修改記錄以支援日後的稽核查核,符合問責性要求。
某企業的 AI 郵件助理在未收到任何用戶指令的情況下,自動掃描收件箱並向外部服務傳送郵件摘要,完全繞過用戶授權。此行為最直接違反了哪一項 AI 原則?
AI 系統應在人類明確授權的範圍內運作,不得自主採取超出指定範圍的行動。在未收到指令的情況下主動掃描和傳送資料,違反了人類監督原則——AI 的所有重要行動都應由人類發起或明確授權,且用戶應對 AI 的行為保有控制能力。
在分析電商平台的用戶行為資料時,資料集包含數百個特徵欄位,許多欄位高度相關。哪一個資料處理階段最能有效挖掘關鍵特徵並減少冗餘?
特徵工程透過特徵選取、特徵提取和特徵構造等方法,識別最具預測能力的變數,同時移除冗餘和無關特徵。這不僅提升模型效能,還降低維度災難風險,並增強模型的可解釋性。
一個法律 AI 需要理解長篇合約文件(超過 10,000 字),並建立不同條款之間的語意關聯(如「第 3 條的賠償規定受第 15 條例外條款限制」)。最適合採用哪一技術策略?
Transformer 架構的自注意力機制能直接建立序列中任意兩個位置的依賴關係,非常適合捕捉長距離語意關聯。針對超長文件需使用 Longformer、BigBird 等支援稀疏注意力的變體,或採用分段處理配合階層式嵌入的策略來突破上下文長度限制。
一家新創公司在訓練其核心 AI 產品時,大量使用了從網路爬取的資料,其中包含許多來源不明、未經授權的資料集。這種做法最主要的潛在風險是?
使用未授權資料訓練商業 AI 產品面臨多重法律風險:若資料包含受著作權保護的內容,可能構成侵權;若包含個人資料未獲同意使用,可能違反 GDPR、個資法等法規。資料來源的合法性是商業 AI 的核心合規議題。
某 AI 聊天應用發現有用戶透過多輪對話策略,逐步引導模型越來越寬鬆地解釋其安全規則,最終繞過內容過濾機制。開發者應部署哪類防護機制?
多輪引導攻擊(Multi-turn Jailbreaking)利用語境的累積效應,每一步都看似無害,組合起來卻能達到惡意目的。防護需要在對話層級追蹤用戶意圖的演變,識別逐步升溫的風險模式,並在語境風險分數超過閾值時重置對話或觸發安全介入。
一個機器學習團隊發現,使用完全相同的訓練資料和模型架構,每次執行訓練得到的模型效能都不同,有時差異高達 5%。最可能的原因是什麼?
深度學習訓練涉及多個隨機性來源:權重的隨機初始化決定了優化的起點,資料批次的隨機排列影響梯度更新方向。這些隨機因素使每次訓練可能收斂至不同的局部最佳解,導致結果變異。解決方案是在訓練前設定固定的隨機種子(Random Seed),確保可重現性。
一個遊戲公司想訓練 AI 自動生成遊戲角色肖像圖。以下哪一種模型最適合此圖像生成任務,且具備「透過對抗訓練學習生成高品質影像」的特性?
GAN 由生成器(Generator)和判別器(Discriminator)組成,兩者在對抗訓練中相互博弈:生成器學習生成以假亂真的圖像,判別器學習區分真實與生成圖像。這種對抗機制促使生成器不斷提升輸出品質,是目前圖像合成、風格遷移等視覺生成任務的核心技術之一。
一家醫院計畫部署 AI 輔助診斷系統,協助放射科醫師閱讀 MRI 影像。在導入評估階段,以下哪一項風險最應優先處理?
醫療 AI 屬於最高風險類別,診斷決策直接影響患者健康和生命。當 AI 做出錯誤診斷時,若無法追溯決策依據,醫院和醫師將面臨難以釐清的法律責任問題,且無法改進系統。可解釋性和決策可追溯性是醫療 AI 部署前最應確保的核心要求。
一個求職平台的 AI 簡歷篩選系統分析後發現,系統會將 55 歲以上的應聘者自動排名靠後,主要因為歷史資料中此年齡層的錄取率較低。這個系統最可能產生什麼問題?
年齡是受保護的敏感特徵(Protected Attribute)。當 AI 系統以年齡作為排名依據時,即使是基於歷史資料的統計規律,也會產生系統性歧視,可能違反禁止年齡歧視的勞工法規。在敏感特徵處理上,需要特別謹慎並採用公平性約束或去偏見技術。
一家零售公司直接向自家會員收集購買行為、偏好設定和地理位置資料,用於訓練個人化推薦模型。這些資料在資料分類中屬於哪一類型?
第一方資料(First-party Data)是企業直接從自己的用戶、客戶或受眾收集的資料,包含購買紀錄、網站行為、問卷回答等。這類資料品質最高、最具代表性,且在資料使用授權上最具可控性,是 AI 訓練資料的最優先來源。
一個信用評分 AI 模型中,「最近一次繳款日期」欄位是預測能力最強的特徵,但在實際業務中,約 30% 的新客戶沒有此欄位資料。應採取什麼策略?
關鍵特徵缺失時,處理策略取決於缺失機制:完全隨機缺失(MCAR)可用統計插補;非隨機缺失(MNAR,如新客戶本就沒有繳款紀錄)則缺失本身就是有意義的信號,可創建「是否有繳款紀錄」的二元特徵。移除此欄位會損失重要預測資訊,應避免。
工程師發現,使用 GPT 回答同一個問題時,每次得到的答案內容差異很大,無法保持一致性,對需要標準化答案的企業應用造成困擾。最可能的原因以及解決方向是?
生成式語言模型輸出的一致性由採樣策略控制。Temperature 過高或 Top-k/Top-p 範圍過大,使模型在低機率詞彙中大範圍採樣,每次生成都可能選擇不同路徑。對於需要一致答案的企業應用,應降低 Temperature(接近 0)或使用 Greedy Decoding(固定選最高機率詞)。
一個電信客服 AI 不僅能預測客戶流失的風險,還能具體說明「主要因為用戶過去三個月的通話投訴次數增加了 40%」。這個系統的特性最符合哪一 AI 治理要求?
可解釋性要求 AI 系統不僅能輸出預測結果,還能以人類可理解的方式說明決策依據(如哪些特徵對預測結果影響最大)。能夠明確指出「通話投訴次數增加」是流失風險上升的主因,正是可解釋 AI 的體現,讓業務人員能夠採取針對性的干預措施。
一個半導體廠的 AI 品質檢測系統使用 CNN 辨識晶圓缺陷,需要精確定位微米級的細小缺陷區域。以下哪一設計最能有效強化局部細節辨識?
空間注意力模組能學習為不同空間位置分配不同的重要性權重,引導模型將更多注意力集中到最可能存在缺陷的局部區域,顯著提升對細小目標的偵測能力,是精密工業缺陷檢測的重要技術。
一個智能家居語音助理希望能記住用戶的習慣(如「每天早上 7 點提醒喝水」、「偏好用台語溝通」),並在後續互動中自動應用這些偏好。這要求系統具備哪種 AI 能力?
有限記憶 AI 能保留和利用過去的互動記錄來優化當前行為,是實現個人化體驗的基礎。智能家居助理需要記住用戶偏好、習慣和歷史指令,這正是有限記憶 AI 的典型應用,與反應型 AI(只對當前輸入做反應,無記憶)形成對比。
一個串流音樂平台的 AI 推薦系統會根據每位用戶過去的聆聽歷史、跳過行為和收藏紀錄,動態調整每日推薦歌單。這個系統展現了哪一類 AI 的典型能力?
有限記憶 AI 能在一段時間內保留用戶互動歷史,並將這些記憶用於當前決策。音樂推薦系統利用用戶過去的行為模式(聆聽時長、跳過率、收藏行為)動態調整推薦策略,是有限記憶 AI 在消費者應用中的典型體現,也是個人化推薦系統的核心設計。
一家健康科技公司在收集用戶的健康監測資料(包含心率、睡眠數據)用於模型訓練時,最符合「資料隱私最佳實務」的做法是?
差分隱私是業界認可的隱私保護標準技術,透過在訓練過程中加入精心設計的噪音,確保即使攻擊者完整取得模型,也無法推斷出任何特定個人的資料。這在保護用戶隱私的同時,允許模型從資料中學習有效的統計規律,是隱私與效用之間的最佳平衡。
一家法律科技公司部署了語言模型輔助判例研究,但律師發現系統有時會引用錯誤的法律條文編號或捏造不存在的判決案例。最適合的改善策略是?
法律應用中的幻覺問題(捏造判例、錯誤引用法條)源於模型缺乏高品質法律專業資訊。解決方案是結合官方法律資料庫進行領域微調,或建立 RAG 架構讓模型在引用法條時必須從真實資料庫檢索,杜絕憑空生成不存在的引用。
一家跨國企業的 AI 資安監控系統在偵測到一次網路入侵事件後,資安稽核人員要求調查 AI 在事件期間的所有判斷依據和決策過程。一個落實哪一治理原則的系統才能支援此類調查?
問責性與審計性原則要求 AI 系統保留完整的決策記錄(包含輸入資料、推論過程、輸出結果和時間戳記),使監管人員和調查人員能夠事後完整重現 AI 在任何時間點的行為和判斷邏輯。這在資安事件調查、法規合規審查和責任釐清中至關重要。
一個工廠的預測性維護系統使用 Autoencoder 模型監控設備的振動感應器數據,以偵測設備異常。模型是如何判斷設備是否異常的?
Autoencoder 被訓練在正常設備數據上重建輸入,學習正常狀態的壓縮表示。當輸入異常數據時,Autoencoder 無法準確重建(因為它從未學過異常模式),產生較高的重建誤差。設定重建誤差閾值,超過閾值即判定為異常,這是無監督式異常偵測的核心邏輯。
一家製造業公司希望用 GPT 自動生成每週的生產效率分析報告,要求報告內容必須準確反映公司內部 ERP 系統的當週實際數據。最佳的實現方式是什麼?
企業報告需要反映真實的即時業務數據,而語言模型的訓練知識有截止日期且缺乏公司內部資料。RAG 架構能讓模型在每次生成前先從 ERP 系統查詢最新的生產數據,以這些真實數據為依據撰寫分析報告,確保內容的時效性和準確性。
一個使用 GAN 訓練的人臉生成模型,輸出的圖像中人物面孔結構扭曲、五官比例嚴重失調,且問題持續訓練後仍未改善。應優先檢查哪一部分?
GAN 訓練的穩定性高度依賴生成器和判別器之間的博弈平衡。若判別器過強(輕易區分真偽),梯度會消失使生成器難以學習;若判別器過弱,生成器無法收到有效的改善訊號。損失函數設計(如 Wasserstein Loss 改善訓練穩定性)和判別器架構是解決 GAN 訓練問題的首要調查方向。
一個用於預測房價的 AI 模型中,「建築面積」和「總樓地板面積」這兩個特徵高度相關(相關係數 0.97)。若不處理直接放入線性回歸模型,最可能產生什麼問題?
多重共線性(Multicollinearity)是指自變量之間高度線性相關,導致線性回歸模型無法獨立估計各特徵的係數,係數的微小變化導致預測值大幅波動(高方差)。解決方案包含:移除其中一個相關特徵、使用 PCA 等降維技術合併相關特徵,或改用能處理共線性的 Ridge/Lasso 正規化回歸。
在 AI 系統導入流程中,「使用情境分析(Use Case Analysis)」階段的主要目的是什麼?
使用情境分析深入理解 AI 系統的實際使用場景:誰在使用、在什麼條件下使用、操作人員的技術背景、可能遇到的邊緣案例、與現有流程的整合需求等。這些洞察確保系統設計真正符合業務實務,避免在真實部署後才發現系統無法融入工作流程的問題。
一家上市公司的法務長要求導入 ChatGPT 作為員工查詢內部法規的助理工具。作為 IT 主管,你認為最重要的風控措施是?
在法規查詢場景中,AI 輸出錯誤可能導致員工做出不合規的決策,帶來法律風險。關鍵風控措施是:建立查詢記錄(確保問題與答案可追溯,便於事後審查)和輸出審查機制,以及明確告知用戶 AI 建議需由法務專業人員最終確認,而非視為正式法律意見。
一個電子商務推薦模型使用了超過 500 個特徵欄位,但訓練時間極長且模型效能並未顯著提升,懷疑許多特徵存在冗餘。最佳的處理策略是?
高維特徵空間帶來維度災難(Curse of Dimensionality):稀疏的資料分布使模型難以找到有效的決策邊界,計算成本也呈指數級增長。主成分分析(PCA)、特徵重要性排序(如基於 Random Forest 或 SHAP)等技術能識別冗餘特徵並壓縮維度,在不顯著損失資訊的前提下提升訓練效率和模型泛化能力。
一個語音客服 AI 系統在面對帶有客家腔調或台灣國語口音的用戶時,辨識錯誤率明顯偏高。最可能缺失哪一設計要素?
語音辨識模型的效能高度依賴訓練資料的口音多樣性。若訓練語料主要由標準普通話組成,模型的聲學模型就無法有效學習其他口音的聲音特徵,導致對非標準口音的辨識率偏低。解決方案是納入多元口音、方言和說話者特性的訓練樣本,或使用口音自適應技術。
一個機器學習工程師在訓練圖像分類模型時,為了趕上截止日期,在模型的訓練損失還在快速下降、尚未收斂時就提前停止訓練。這種操作最可能造成什麼問題?
欠擬合(Underfitting)發生在模型訓練不足的情況下:模型未能充分學習訓練資料中的規律,導致在訓練集和測試集上的表現都很差。與過擬合(訓練太久、過度記憶訓練數據)相對,欠擬合需要更多訓練輪次、更複雜的模型架構,或更好的特徵工程來解決。
使用 BERT 模型對用戶評論進行多類別情感分類時,下列哪一做法是 BERT 進行句子分類的標準方法?
BERT 在輸入序列的最開頭添加特殊的 [CLS] Token,在訓練過程中,此 Token 的最後隱藏層輸出被設計為整個序列的聚合語意表示。在分類任務中,取 [CLS] 向量輸入線性分類層(加 Softmax)是 BERT 進行句子分類的官方標準做法。
一個供應鏈風險預測 AI 模型在兩年前訓練完成後便一直運行,沒有進行任何監控或更新。近期因全球局勢劇變,供應鏈模式大幅改變,模型的預測準確率持續下滑。這個案例最能說明哪種問題?
資料漂移(Data Drift)是指真實世界的資料分布隨時間變化,偏離模型訓練時的資料分布;概念漂移(Concept Drift)是指輸入與輸出之間的關係本身發生改變。全球局勢引發的供應鏈模式劇變,使兩年前的訓練數據失去代表性,模型無法應對新的市場動態。建立持續監控機制和定期再訓練流程是應對此問題的標準做法。
下列何者最能描述「人工智慧(AI)」的核心概念?
AI 的核心就是讓機器能模仿人類的智慧行為,包括學習、推理、解決問題等,不一定要有情感或超越人腦速度。
小明想要建立一個系統,能自動辨識照片中的貓和狗。他需要先準備大量已標記「貓」或「狗」的圖片來訓練模型。這屬於哪一種機器學習方法?
有標記好答案的資料拿去訓練,就是監督式學習啦!就像老師出考卷附解答,讓學生對答案學習一樣。
在 AI 發展歷史中,1956 年達特茅斯會議的重要性在於?
1956 年的達特茅斯會議是 AI 的起點,John McCarthy 等人在這場會議上正式提出「Artificial Intelligence」這個詞,AI 研究從此開始。
某電商平台想將顧客自動分成不同族群以進行精準行銷,但事先不知道該分幾群、也沒有標籤。最適合使用下列哪種方法?
沒有標籤、想把資料自動分群,這就是非監督式學習的場景,K-Means 分群法就是最經典的做法。
下列哪一項是「強化學習」的典型應用場景?
強化學習的精髓就是「試錯」,透過跟環境互動、得到獎勵或懲罰來學習最佳策略,機器人學走路就是最好的例子。
神經網路中,「激活函數(Activation Function)」的主要作用是什麼?
如果沒有激活函數,神經網路不管疊幾層都只能做線性運算。加了激活函數就能處理複雜的非線性問題,這才是神經網路厲害的地方。
卷積神經網路(CNN)最初被設計用來處理哪一類型的資料?
CNN 的卷積層就是模仿人類視覺皮層的運作方式,特別擅長從圖片中擷取局部特徵,所以影像辨識是它的老本行。
遞迴神經網路(RNN)相較於傳統神經網路,最大的特點是什麼?
RNN 的隱藏層會把前一個時間步的資訊傳遞給下一步,所以它有「記憶」,特別適合處理像文字、語音這類有先後順序的資料。
Transformer 架構相較於 RNN,在處理長序列資料時的主要優勢為何?
RNN 要一步一步跑,遇到很長的句子容易忘記前面的資訊。Transformer 用自注意力機制(Self-Attention),每個位置都能直接「看到」其他所有位置,而且還能平行運算,效率和效果都大幅提升。
下列何者屬於 AI 中「弱人工智慧(Narrow AI)」的例子?
弱 AI 就是專門做某一件事很厲害的 AI,像 Siri 專門處理語音指令。會自己思考、有意識的那種是強 AI,目前還沒實現喔。
在資料預處理階段,將數值特徵縮放到 [0, 1] 範圍的技術稱為?
Min-Max Normalization 就是把每個值按比例壓縮到 0 到 1 之間,公式是 (x - min) / (max - min),讓不同尺度的特徵能公平比較。
某分類模型的混淆矩陣顯示:TP=80、FP=20、FN=10、TN=90。請問該模型的精確率(Precision)為多少?
Precision = TP / (TP + FP) = 80 / (80 + 20) = 0.8 = 80%。精確率就是模型說「是」的裡面,到底有多少是真的「是」。
同上題資料(TP=80、FP=20、FN=10、TN=90),該模型的 F1 Score 最接近下列何值?
先算 Precision = 80/100 = 0.8,Recall = 80/(80+10) = 80/90 ≈ 0.889。F1 = 2 × (0.8 × 0.889) / (0.8 + 0.889) ≈ 2 × 0.711 / 1.689 ≈ 0.842,最接近 0.84。F1 就是 Precision 和 Recall 的調和平均數。
一個模型在訓練資料上準確率 99%,但在測試資料上只有 60%,這最可能是什麼問題?
訓練超好但測試很差,就像學生把考古題背得滾瓜爛熟,但換個題目就不會了,這就是過擬合——模型把訓練資料的雜訊都記住了,沒學到真正的規律。
下列哪一種方法可以有效緩解過擬合問題?
正則化就是在損失函數加上一個懲罰項,不讓模型的參數太大太複雜,逼它學到更簡潔的規律,這樣就不容易過擬合了。
下列何者不是常見的機器學習任務類型?
分類、迴歸、分群都是機器學習的經典任務。編譯是把程式碼轉成機器碼的過程,跟機器學習沒關係啦。
在處理類別型特徵時,若該特徵為「血型」(A、B、AB、O),最適合使用哪種編碼方式?
血型之間沒有大小順序關係,如果用標籤編碼(A=1, B=2...),模型會以為 B 比 A 大,這不對。用 One-Hot Encoding 把每個血型變成獨立的 0/1 欄位,就不會有這個問題。
下列關於 L1 正則化(Lasso)與 L2 正則化(Ridge)的比較,何者正確?
L1 正則化的懲罰項是權重的絕對值總和,它有個特性就是會把不重要的特徵權重直接壓到零,等於自動幫你做特徵選擇。L2 則是讓權重變小但不會變成零。
在訓練深度學習模型時,Dropout 技術的作用是?
Dropout 就是訓練時隨機「關掉」一些神經元,讓模型不能太依賴某幾個神經元,強迫它學到更健壯的特徵,是對抗過擬合的好招。
下列哪一項是監督式學習需要的關鍵元素?
監督式學習就是要有正確答案(標籤)的資料來訓練,就像考試有標準答案一樣,模型才知道自己學對了沒有。
某醫療 AI 系統用於癌症篩檢,下列哪個評估指標應該被優先重視?
癌症篩檢最怕的就是漏掉真正有病的人(FN),所以召回率(Recall = TP/(TP+FN))最重要。寧可多檢查幾個沒病的,也不能放過真的有病的。
下列關於「欠擬合(Underfitting)」的描述,何者正確?
欠擬合就是模型太簡單,連訓練資料都學不好,當然測試也不會好。就像一個學生連課本都沒讀懂,考試當然也考不好。
機器學習模型訓練過程中,「損失函數(Loss Function)」的作用是什麼?
損失函數就是模型的「成績單」,告訴模型它的預測離正確答案還有多遠,模型的目標就是讓這個值越小越好。
深度學習中的「反向傳播(Backpropagation)」主要用途是?
反向傳播就是把損失從後面往前算梯度,告訴每一層的權重該往哪個方向調整才能讓損失變小。它是訓練神經網路的核心演算法。
在二分類問題中,若正類與負類比例為 1:99,即使模型把所有樣本都預測為負類,準確率仍可達到 99%。此時應優先參考哪些指標?
資料不平衡時,準確率根本不可靠。就像 100 個人只有 1 個生病,你全部猜「沒病」就有 99% 準確率,但那個病人你漏掉了!這時候要看 Precision、Recall 和 F1 Score 才有意義。
特徵工程中,「特徵選擇(Feature Selection)」的目的是什麼?
不是特徵越多越好!太多不相關的特徵反而會干擾模型。特徵選擇就是挑出真正有用的特徵,讓模型訓練更快、效果更好。
下列哪一項是「非監督式學習」的典型應用?
顧客分群不需要事先標記誰是哪一群,讓演算法自己從資料中找出相似的群體,這就是非監督式學習的典型應用。
下列哪一個不是常用的激活函數?
ReLU、Sigmoid、Softmax 都是常見的激活函數。Gradient(梯度)是用來更新權重的數學概念,不是激活函數喔。
在 CNN 中,「池化層(Pooling Layer)」的主要功能是?
池化層就是把特徵圖「縮小」,例如最大池化會從一小塊區域中只保留最大值,這樣可以減少計算量,同時保留重要特徵。
下列關於梯度消失(Vanishing Gradient)問題的敘述,何者正確?
Sigmoid 的梯度最大才 0.25,經過很多層連乘之後梯度會越來越小,趨近於零,導致前面的層幾乎學不到東西。這就是為什麼後來大家改用 ReLU。
下列何者是 AI 倫理中常被討論的議題?
AI 倫理最核心的議題之一就是演算法偏見——如果訓練資料有偏誤,AI 就會做出不公平的決策,像是歧視特定族群。
某公司用歷史人事資料訓練 AI 篩選履歷,結果發現系統偏好男性候選人。這最可能是什麼原因造成的?
如果過去公司錄取的大多是男性,AI 就會學到「男性比較好」這個偏見。這就是資料偏誤(Data Bias)的問題——垃圾進垃圾出,資料有偏見,AI 就有偏見。
在 AI 的歷史中,「AI 寒冬」指的是什麼?
AI 寒冬是指人們對 AI 期望太高但技術跟不上,導致失望後經費大砍、研究停滯的時期。歷史上發生過兩次大的 AI 寒冬。
下列哪一種技術不屬於資料預處理的範疇?
缺失值填補、特徵縮放、異常值處理都是在資料送進模型前做的預處理。超參數調整是在模型訓練階段的事,跟資料預處理是不同步驟。
在自然語言處理中,Transformer 模型使用的「自注意力機制(Self-Attention)」的運作原理是?
自注意力機制會計算序列中每個位置跟其他所有位置的關聯程度(透過 Query、Key、Value),讓模型知道每個詞該「注意」哪些詞,這就是 Transformer 強大的秘密。
某模型在處理「判斷郵件是否為垃圾郵件」的任務時,召回率(Recall)只有 40%。這代表什麼意思?
Recall = TP / (TP + FN),意思是「真正是垃圾郵件的裡面,有多少被模型抓到」。只有 40% 表示有 60% 的垃圾郵件溜過去了,很多垃圾信會出現在收件匣。
下列哪一個是「迴歸(Regression)」任務的例子?
迴歸就是預測一個連續的數值,像氣溫可以是 25.3 度、31.7 度等等。其他選項都是在做分類,輸出是類別而不是數值。
在神經網路中,「學習率(Learning Rate)」設定太大可能會導致什麼問題?
學習率太大就像走路步伐太大,會在最低點附近跳來跳去甚至越走越遠(發散),永遠找不到最佳解。太小則會走很慢,所以要找到剛好的學習率。
下列何者是深度學習(Deep Learning)的正確描述?
深度學習是機器學習的一個分支,特點就是使用很多層的神經網路(所以叫「深度」)。它是 AI 的子集中的子集:AI > 機器學習 > 深度學習。
下列哪一種方法可用來處理資料集中的缺失值?
缺失值常見的處理方式就是用平均值、中位數或眾數來填補。也可以用更進階的方法如 KNN 填補,但平均值填補是最基本也最常用的。
在模型評估中,ROC 曲線下面積(AUC-ROC)的數值範圍與意義為何?
AUC-ROC 的值在 0 到 1 之間,越接近 1 表示模型越能分辨正類和負類。0.5 代表跟隨機猜一樣,低於 0.5 表示比亂猜還差(可能標籤反了)。
下列關於決策樹(Decision Tree)的敘述,何者錯誤?
決策樹可以做分類也可以做迴歸,它是很萬用的演算法。它的優點是結果很直觀好解釋,缺點是容易過擬合,所以常搭配剪枝或集成方法使用。
「圖靈測試(Turing Test)」的目的是什麼?
圖靈測試是 Alan Turing 在 1950 年提出的,如果一個人跟機器對話後分不出對方是人還是機器,那這台機器就通過了圖靈測試,算是有「智慧」了。
下列哪一個不是常見的集成學習(Ensemble Learning)方法?
隨機森林、梯度提升、投票法都是集成學習的方法,核心概念是「三個臭皮匠勝過一個諸葛亮」。反向傳播是神經網路的訓練演算法,不是集成方法。
在標準化(Standardization)處理中,資料被轉換為何種分布?
標準化的公式是 (x - 平均值) / 標準差,處理完後資料的平均值為 0、標準差為 1。跟 Min-Max 正規化不同,標準化不限定範圍。
在 CNN 架構中,卷積層使用多個濾波器(Filter)的目的是什麼?
每個濾波器就像一個專門的偵探,有的找水平線、有的找垂直線、有的找曲線。多個濾波器合作,就能從影像中擷取各種不同的特徵模式。
下列哪一項技術突破促使深度學習在 2012 年後快速發展?
深度學習需要大量資料和強大的運算力。2012 年 AlexNet 用 GPU 在 ImageNet 競賽大放異彩後,大家發現 GPU 超適合訓練深度學習模型,從此深度學習起飛。
下列關於「偏差-變異數權衡(Bias-Variance Tradeoff)」的說明,何者正確?
高偏差 = 太簡單 = 欠擬合;高變異數 = 太複雜 = 過擬合。好的模型要在兩者之間找到甜蜜點,不能太簡單也不能太複雜。
在自然語言處理中,「詞嵌入(Word Embedding)」技術的作用是什麼?
詞嵌入就是把文字變成一串數字(向量),而且意思相近的詞在向量空間中會靠得很近,像「國王」和「皇帝」的向量就會很接近。
下列何者是 AI 的三大學派之一?
AI 的三大學派是符號主義(用規則和邏輯)、連結主義(用神經網路)、行為主義(強調與環境互動)。其他都是社會或文學的主義啦。
下列哪種情況最適合使用遷移學習(Transfer Learning)?
遷移學習就是把在大資料集上學到的知識搬到你的小資料任務上。就像一個英文很好的人學法文會比較快,因為很多語言概念是相通的。
在處理時間序列預測任務時,LSTM(長短期記憶網路)相較於標準 RNN 的主要改進是什麼?
標準 RNN 的記憶很短,很快就忘了前面的資訊。LSTM 加了三個「門」來控制要記住什麼、忘掉什麼、輸出什麼,就像幫記憶加了一個智慧管理系統,能處理長距離的依賴關係。
下列關於「批次大小(Batch Size)」的敘述,何者正確?
小批次的梯度是用少量樣本算出來的,所以比較「吵」不穩定,但也因此有隨機性幫助逃離局部最小值。大批次比較穩定但可能卡在不好的解。
下列哪一個是 AI 在醫療領域的應用範例?
AI 輔助醫師判讀 X 光、CT 掃描等醫學影像是醫療 AI 最成功的應用之一,可以幫助醫師更快速且準確地找到病灶。
下列何者是處理類別不平衡問題的常用方法?
類別不平衡時,可以對少數類別做過採樣(複製或合成更多樣本),或對多數類別做欠採樣(減少樣本),讓模型能公平學到兩個類別的特徵。
Batch Normalization 在深度學習中的作用,下列何者最為正確?
Batch Normalization 在每一層的輸入做正規化,讓分布更穩定,這樣梯度不會爆炸或消失,訓練更快也更穩定。它可以用在各種層,不只卷積層。
下列哪一項最能描述「特徵(Feature)」在機器學習中的意義?
特徵就是資料的「屬性」,像預測房價時,坪數、樓層、屋齡等等就是特徵。模型就是從這些特徵中學習規律來做預測。
下列關於 Softmax 函數的敘述,何者正確?
Softmax 會把神經網路最後一層的輸出轉成機率,每個類別一個機率值,加起來恰好等於 1。這樣你就能知道模型覺得最可能是哪個類別。
以下哪一種情境最可能造成「選擇偏誤(Selection Bias)」?
只用某個年齡層的人臉來訓練,模型就只認得那個年齡層的臉,遇到其他年齡層就辨識不好。這就是選擇偏誤——訓練資料不能代表所有使用者。
關於 AI 的可解釋性(Explainability),下列敘述何者最正確?
在醫療、金融這種攸關人命和財產的領域,光說「AI 說的」不夠,必須能解釋為什麼做出這個決策。這就是可解釋性 AI(XAI)被重視的原因。
下列哪一個是正確的 AI 發展里程碑順序?
正確順序是:1956 年達特茅斯會議提出 AI → 1970-80 年代專家系統盛行 → 2012 年後深度學習崛起。時間軸要搞清楚喔。
主成分分析(PCA)是一種常見的降維技術,其核心概念是?
PCA 就是找到資料中最「有料」的方向(變異量最大),把資料投影上去,用較少的維度保留最多的資訊。就像把 3D 物體拍成 2D 照片,挑最有代表性的角度拍。
在深度學習中,「Epoch」指的是什麼?
一個 Epoch 就是所有訓練資料都被模型跑過一遍。通常要跑很多個 Epoch 模型才能學好,就像課本要讀好幾遍才能搞懂。
下列關於生成對抗網路(GAN)的敘述,何者正確?
GAN 由生成器(造假)和判別器(辨真偽)組成,兩者互相對抗進步。就像偽鈔集團和警察互相較勁,最終偽鈔越做越像真的。但 GAN 訓練其實很不穩定,模式崩塌是常見問題。
下列哪一個最能描述機器學習與傳統程式設計的差異?
傳統程式設計是你告訴電腦「怎麼做」;機器學習是你給電腦資料和答案,讓它自己學出「怎麼做」。一個是教規則,一個是讓它自己悟。
某公司開發了一個信用評分 AI 系統,下列哪一項做法最符合 AI 倫理原則?
AI 倫理強調透明性和可解釋性,特別是影響個人權益的系統。使用者有權知道 AI 為什麼做出這個決定,這是公平和負責任 AI 的基本要求。
下列關於「訓練集、驗證集、測試集」三者的描述,何者正確?
訓練集是模型的課本,驗證集是模擬考(拿來調整策略),測試集是真正的考試(不能提前看)。三者各有分工,不能混用。
下列關於正則化的敘述,何者錯誤?
正則化強度越大,對模型權重的懲罰越重,模型被迫變簡單,是越不容易過擬合才對。如果正則化太強,反而會欠擬合。所以 C 說反了。
KNN(K 最近鄰)演算法的基本原理是什麼?
KNN 超簡單直覺!就是看新資料的 K 個最近鄰居是什麼類別,哪個類別最多就分到哪一類。就像搬到新社區,看你周圍鄰居大多是什麼職業。
資料預處理時,為什麼需要處理異常值(Outlier)?
異常值就像考試有人考 0 分會拉低全班平均一樣,它們會扭曲平均值、變異數等統計量,讓模型被極端值帶偏,學到錯誤的規律。
下列哪一種方法屬於「特徵萃取(Feature Extraction)」?
特徵萃取是從原始資料中提取有用的特徵表示,深度學習中 CNN 從像素自動學出邊緣、紋理等特徵就是最好的例子。C 比較像是特徵工程中的手動建構特徵。
在深度學習模型的優化過程中,Adam 優化器相較於傳統 SGD 的主要優勢是?
Adam 結合了 Momentum(累積過去梯度的動量)和 RMSProp(自適應學習率),讓每個參數有自己的學習率,訓練更穩定也更快收斂。不過它還是需要設初始學習率。
專家系統(Expert System)屬於 AI 的哪一個發展階段?
專家系統是 1980 年代的明星,它把人類專家的知識用「如果...那麼...」的規則寫成程式,讓電腦模擬專家決策。是 AI 第二波熱潮的代表。
在進行模型評估時,「混淆矩陣(Confusion Matrix)」能提供哪些資訊?
混淆矩陣就像模型的「成績明細」,不只告訴你答對幾題,還告訴你哪些答對、哪些答錯、哪些是猜對的、哪些是漏掉的,可以算出 Precision、Recall 等所有指標。
下列哪一項不是深度學習成功的關鍵因素?
深度學習成功靠的是大資料、強運算力(GPU/TPU)和好用的框架(如 TensorFlow、PyTorch)。量子電腦目前還不是深度學習的必要條件。
下列關於資料增強(Data Augmentation)的敘述,何者正確?
資料增強就是對現有資料做一些合理的變換(翻轉、旋轉、加雜訊等),產生更多訓練樣本。這樣模型看過更多變化,泛化能力會更好。影像領域用得最多。
下列哪一個是「分類」而非「迴歸」的問題?
分類是要把東西歸到某個類別(垃圾/非垃圾),迴歸是預測一個數字(價格、溫度、降雨量)。判斷垃圾郵件就是二分類問題。
下列哪一項是「資料洩漏(Data Leakage)」的正確描述?
資料洩漏是指模型在訓練時偷看到了測試集的資訊,導致它在評估時表現超好,但實際上線後效果很差。就像考試前偷看到考卷一樣,成績不真實。
下列關於卷積神經網路中「步幅(Stride)」的敘述,何者正確?
步幅就是濾波器每次移動的距離。步幅越大,濾波器跳得越遠,掃描次數越少,輸出的特徵圖就越小。步幅 2 就是跳兩格掃一次,輸出大小大約是原來的一半。
在多分類問題中,使用「交叉熵損失函數(Cross-Entropy Loss)」的原因是什麼?
交叉熵量測兩個機率分布的差異,當模型預測的機率越接近真實標籤,交叉熵越小。它對錯誤的自信預測懲罰很重,所以很適合分類任務。
下列何者不屬於 AI 倫理中需要關注的面向?
AI 倫理關注的是隱私權、公平性、透明度、問責制等議題。程式碼的縮排格式是程式風格的問題,跟倫理沒有關係。
在機器學習中,「超參數(Hyperparameter)」與「參數(Parameter)」的差異是什麼?
參數(如神經網路的權重)是模型自己學的;超參數(如學習率、層數、批次大小)是你在訓練前就要設好的。就像考試:參數是學生的知識,超參數是讀書計畫。
下列關於支持向量機(SVM)的敘述,何者正確?
SVM 要找的就是那條離兩邊最遠的分界線(超平面),這樣分類最有信心。對於非線性的資料,SVM 可以用核函數技巧把資料映射到高維空間來處理。
1997 年 IBM 的深藍(Deep Blue)打敗西洋棋世界冠軍,這是 AI 歷史上的哪一個重要里程碑?
深藍打贏棋王卡斯帕洛夫,證明 AI 在特定任務上可以贏過人類高手。但深藍只會下棋,不代表它有通用智慧或通過圖靈測試。
在處理文字資料時,「TF-IDF」的作用是什麼?
TF-IDF 結合了詞頻(TF,這個詞在這篇文件出現多少次)和逆文件頻率(IDF,這個詞在多少篇文件中出現),越常出現在特定文件但不常出現在其他文件的詞,TF-IDF 值越高。
下列哪一種學習方式會利用「獎勵信號」來引導模型的行為?
強化學習的核心就是獎勵信號——做對了加分、做錯了扣分。模型(代理人)透過不斷嘗試,學習在什麼狀態下做什麼動作能累積最多獎勵。
在模型選擇時,若用格子搜尋(Grid Search)調整超參數,其主要缺點是什麼?
Grid Search 會嘗試每一種超參數組合。如果你有 3 個超參數,每個有 10 個候選值,就要跑 10×10×10=1000 次實驗!超參數越多,計算量爆炸式增長。
下列哪一個是「強人工智慧(Strong AI / AGI)」的特徵?
強 AI 又叫通用人工智慧(AGI),就是能像人類一樣處理任何類型的智慧任務。目前還只是理論目標,現有的 AI 都還是弱 AI(只擅長特定任務)。
下列關於「遞迴神經網路(RNN)」的問題,何者最為嚴重?
RNN 的致命傷就是梯度消失——資訊經過很多時間步傳遞後會越來越弱,導致模型記不住很久以前的資訊。這就是後來發明 LSTM 和 GRU 的原因。
下列何者是「資料偏誤(Data Bias)」可能導致的後果?
如果訓練資料對某些群體有偏見(例如較少代表),AI 就會學到這些偏見,做出歧視性的決策。這在貸款審批、求職篩選等場景特別嚴重。
關於「殘差網路(ResNet)」中跳躍連接(Skip Connection)的作用,下列何者最正確?
跳躍連接讓訊號可以「抄捷徑」直接跳過某些層,這樣梯度在反向傳播時也能透過捷徑傳回去,不會因為層數太多而消失。這就是 ResNet 可以訓練超深網路(上百層)的秘密。
下列哪一項是機器學習流程的正確順序?
機器學習的標準流程就是:先收集資料,再清理整理(預處理),然後訓練模型,評估效果好不好,最後才上線部署。一步一步來才不會出錯。
當模型的訓練損失持續下降但驗證損失開始上升時,這通常表示什麼?
訓練損失一直降但驗證損失反而上升,表示模型開始「背答案」——在訓練資料上越來越好,但在沒看過的資料上越來越差,就是過擬合的經典信號。
下列關於隨機森林(Random Forest)的敘述,何者正確?
隨機森林就是建很多棵不同的決策樹(每棵用不同的資料子集和特徵子集),最後投票取多數決。集思廣益比一棵樹獨斷獨行更不容易過擬合。
下列哪一個技術被認為是 2012 年深度學習革命的標誌性事件?
2012 年 Alex Krizhevsky 的 AlexNet 用 CNN 和 GPU 在 ImageNet 影像辨識競賽中大幅領先第二名,證明深度學習的威力,開啟了深度學習的黃金年代。
在 AI 倫理中,「公平性(Fairness)」的核心要求是什麼?
AI 的公平性是指系統不能因為種族、性別、年齡等敏感因素就對某些群體不公平。比如貸款 AI 不能因為你的性別就給你較差的條件。
下列關於早停法(Early Stopping)的敘述,何者最為正確?
早停法就是盯著驗證集的損失,當它開始上升時代表模型要過擬合了,趕快踩煞車停止訓練。這樣可以在模型還沒「背答案」之前就收手,保持良好的泛化能力。
某公司想用 AI 建立一個即時翻譯系統,需要處理輸入序列並產生輸出序列。下列哪一種模型架構最適合?
機器翻譯是典型的序列對序列(Seq2Seq)問題,編碼器負責理解輸入語言,解碼器負責產生輸出語言,加上注意力機制讓模型知道翻譯每個詞時該注意原文的哪些部分。現在的 Transformer 就是這個架構的進化版。
下列哪一項最能描述「人工智慧」的核心概念?
人工智慧的核心是讓機器能夠從資料中學習規律,並根據這些規律做出判斷或預測,而不是只能按照人類寫好的固定步驟執行。運算速度和網路連線是基礎設施,不是 AI 的定義。
某電商公司想用 AI 預測哪些客戶可能在下個月流失。這屬於機器學習中的哪種任務類型?
預測客戶是否流失是一個二元分類問題(流失 vs 不流失),需要用歷史資料(有標註的)來訓練模型,所以屬於監督式學習的分類任務。非監督式學習沒有標籤,強化學習是透過獎懲來學習策略。
在訓練神經網路時,梯度消失問題最容易發生在以下哪種情況?
Sigmoid 函數的輸出範圍在 0 到 1 之間,其導數最大值只有 0.25。當網路層數很深時,反向傳播過程中梯度會被不斷乘以這個小於 1 的值,導致前面幾層的梯度趨近於零,模型幾乎無法更新。ReLU 函數在正區間的導數為 1,能有效緩解這個問題。
一家電商平台想導入 AI 系統,同時分析商品圖片和顧客評論文字來判斷商品品質。這種能同時理解圖像與文字輸入的 AI 系統,屬於下列哪一類型?
多模態系統(如 GPT-4V)能同時接收並整合圖像、文字等不同形式的輸入資訊,進行跨模態的理解與生成,是此類應用的核心技術。
某縣市政府想使用生成式 AI 處理市民個人申辦紀錄,並自動產出行政摘要報告。在規劃導入時,下列哪一項應列為最優先的考量?
政府部門處理個人資料時,法規遵循與隱私保護是第一道門檻,必須採用差分隱私或聯邦學習等合規保護機制,才可進行後續技術規劃。
某法律科技公司使用語言模型自動回覆客戶法律諮詢,但頻繁出現模型捏造不存在的判決案例的情況。下列哪一種架構最能有效解決此問題?
RAG(Retrieval-Augmented Generation)能將模型輸出與實際知識庫綁定,讓生成內容有明確資料來源依據,有效降低幻覺(Hallucination)問題。
一家中小企業使用 No Code 平台快速建立了一個自動回覆表單系統,但隨著業務成長,發現系統無法支援複雜的多步驟審批流程。這主要反映了 No Code 平台的哪一項限制?
No Code 平台雖可快速上手,但面對複雜業務邏輯與大規模系統整合需求時,往往因架構封閉而無法彈性擴展,這是其主要限制。
產品行銷團隊需要選擇一套 AI 文字生成工具,用於自動撰寫不同平台(官網、社群、電子報)的產品文案。選擇工具時應以哪項原則為最優先考量?
選擇 AI 生成工具應依據實際任務需求(如摘要、創作、翻譯)來判斷,不同工具在輸出風格、格式控制與語言能力上有顯著差異,需與任務屬性匹配。
一個線上客服平台導入 LLM 後,在尖峰時段發現 API 費用急遽攀升,且回應延遲超過用戶可接受範圍。下列哪一種處理方式最能同時改善成本與效能?
量化(Quantization)與剪枝(Pruning)等推理優化技術能在維持模型效能的前提下,顯著降低計算資源消耗,是解決部署成本與延遲問題的最佳方案。
某金融機構導入生成式 AI 協助法務部門快速產出貸款合約摘要,以加速審核流程。在此應用中,下列哪一配套措施最為關鍵?
法律文件具高度風險,AI 生成內容必須經過人工審查與法律專業覆核,才符合負責任 AI 的問責性與法遵要求。
某 HR 系統導入 AI 輔助職位推薦後,數據顯示系統對女性求職者推薦的職位層級明顯低於男性。應優先檢查下列哪一項問題?
訓練資料中反映的歷史偏見(如職場性別不平等)會被模型學習並放大,導致推薦結果存在歧視性,是公平性問題的主要根源。
某企業準備導入生成式 AI 協助客服人員草擬回覆郵件。在正式上線前,專案團隊規劃了一個小規模試驗,邀請 10 位客服人員實際使用並收集回饋。這個試驗階段在導入流程中對應哪一個步驟?
PoC(Proof of Concept)是導入流程中的關鍵驗證階段,目的是在小規模環境中測試技術可行性,並收集初步成效數據以做為後續決策依據。
某銀行使用 AI 模型審核貸款申請,監管機關要求銀行必須能向申請人說明每筆貸款被拒絕的原因。下列哪一類輔助工具最適合用來達成此要求?
SHAP 與 LIME 是主流的可解釋性(Explainability)技術,能量化每個輸入特徵對模型預測結果的貢獻程度,幫助說明決策依據。
一家電信公司導入 AI 客服機器人自動回答用戶問題,為了確保 AI 不會對敏感投訴(如帳單糾紛)產生誤導性回應,應建立哪一項機制?
人工干預機制是負責任 AI 的核心要素,能在 AI 出現錯誤或爭議性回應時及時介入修正,是客服場景中不可或缺的風險控制機制。
某企業發現其部署的 AI 助理會在後續對話中洩露前次對話中用戶提供的個人地址資訊。應優先採用哪一種機制來解決此問題?
限制模型的上下文記憶範圍並搭配差分隱私技術,可有效防止模型在後續對話中無意間洩露使用者在先前對話中提供的機敏資訊。
某軟體開發公司希望為工程師導入 AI 工具,讓開發者在 IDE 中獲得即時程式碼補全建議,以提升開發效率。下列哪一組工具最適合此需求?
GitHub Copilot 與 Amazon CodeWhisperer 均為專為程式碼開發場景設計的生成式 AI 工具,能在開發者撰寫程式碼時提供即時補全與建議。
一家智慧家居公司想開發一套個人化語音助理,讓用戶可以語音下指令並得到語音回應。下列哪一組技術最適合作為此系統的核心架構?
語音助理的核心需要兩個能力:將用戶語音轉為文字(ASR,由 Whisper 負責)以及將文字回應轉為語音輸出(TTS),兩者結合構成完整的語音互動流程。
某公司導入 AI 自動摘要工具已三個月,管理層詢問這項投資是否值得。下列哪一種評估方式最能體現導入生成式 AI 的「業務目標適配度」?
評估生成式 AI 導入成效應聚焦於與業務目標直接對應的具體指標,若工具無法產出可量化的業務價值,即使技術完善也失去實務意義。
某科技公司希望讓 AI 自動生成符合公司風格的週報簡報,要求內容既要有品質又要引用公司內部數據。下列哪一策略最能同時提升生成品質與可信度?
提供標準化範本確保格式一致,透過 RAG 整合內部數據確保內容準確,是降低幻覺並提升企業應用生成品質的有效組合策略。
一家醫療器材公司規劃導入生成式 AI 協助撰寫法規申報文件,希望提前發現潛在的法遵風險。在導入流程中,哪一個階段最能有效識別這些風險?
在導入初期的需求盤點階段納入法規與業務限制分析,可以在還未投入大量資源前就識別法遵風險,避免後期因重工而浪費成本。
某新聞媒體公司的 AI 編輯工具在描述特定職業時,習慣性地使用陽性代名詞。這種現象屬於哪一類 AI 風險?
模型對特定性別、族群或年齡等特徵產生不當的差異性輸出,屬於偏見與歧視風險,需透過訓練資料檢查與模型微調加以改善。
某企業的 AI 系統負責人想向董事會展示「可解釋性(Explainability)」技術對公司有何實質幫助。下列哪一項描述最能體現可解釋性的核心價值?
可解釋性的核心在於讓模型能對外說明其預測或輸出的依據,透過特徵貢獻度與視覺化呈現,提升決策透明度與利害關係人的信任。
某新創公司使用 No Code 平台在兩天內建立了一個 AI 問答系統,但上線三個月後,隨著業務規則越來越複雜,系統已無法維護且難以新增功能。最可能的原因是什麼?
No Code 平台雖能快速建立原型,但其預設的模組化結構難以實現複雜業務邏輯,且長期維護性不佳,這是其在企業級應用中的主要侷限。
某 AI 客服系統的管理員發現,當用戶在早些時候的對話中提到病歷資訊後,模型在後續不相關的對話中竟然主動提及這些資訊。應採用哪一種機制最能有效避免此問題?
差分隱私機制可防止模型從訓練或推理過程中記憶機敏輸入,而上下文記憶限制則可避免模型在跨對話中保留用戶的個人敏感資訊。
某設計平台想讓 AI 理解用戶上傳的產品圖片並配合文字描述自動生成廣告文案。下列哪一技術最適合用來實現圖像與文字之間的語意對齊?
CLIP 與 Flamingo 能將圖像與文字映射到同一語意向量空間,學習兩者之間的對應關係,是實現跨模態理解與生成的核心技術。
一家電商平台導入 AI 客服機器人,要求機器人的所有回覆都必須基於公司官方的產品說明書與退換貨政策,不能憑空捏造資訊。下列哪一種架構最符合此需求?
RAG 架構能讓模型在生成回覆前先從指定知識庫中檢索相關文件,確保回應內容有實際依據,有效避免幻覺問題。
某政府機關的 AI 審查委員會要求,凡是 AI 系統做出的行政決定,都必須能事後追溯決策過程並找出負責人。下列哪一實作方式最能符合「問責性(Accountability)」的治理原則?
問責性要求 AI 系統的每一個決策過程都必須可追溯,建立完整的決策記錄與審計日誌是實現問責性的核心手段。
某翻譯服務平台發現其 AI 模型在翻譯含有諷刺語氣的段落時,常常將諷刺意思翻成字面意思,導致語意完全相反。最可能的根本原因是什麼?
反語、諷刺等複雜語境需要大量高品質語料才能讓模型學習,若訓練資料中此類樣本不足,模型將難以正確判斷語意結構,導致語義錯置。
某品牌代理商委託設計師使用 DALL·E 生成一系列公司識別 Logo 方案,準備用於官方商業場合。在使用前,下列哪一項風險應提前評估與控管?
圖像生成模型在訓練過程中學習了大量有版權的圖像風格,商業使用時須謹慎評估生成內容是否與現有商標或著作權保護作品相似,以避免法律糾紛。
某製造業導入生成式 AI 輔助產品說明書撰寫,三個月後管理層要評估這個專案的投資報酬率。下列哪一組指標最適合作為評估導入成效的關鍵績效指標(KPI)?
導入成效應從業務影響面評估,包括實際用戶的使用滿意度以及生成內容的準確性,這兩項指標能真實反映 AI 工具是否創造業務價值。
某企業將 ChatGPT 整合進內部 IT 服務台,員工可以直接詢問公司 IT 政策相關問題。為了防止 ChatGPT 給出與公司政策相悖的誤導性回答,最關鍵的措施是什麼?
透過精心設計的 Prompt Engineering,可以明確限制模型的回答範圍與依據,結合 RAG 或 System Prompt 設定,是防止 AI 誤導使用者的有效方法。
某互動媒體公司同時開發兩個功能:一是讓 AI 根據劇本描述自動生成場景插圖,二是讓 AI 聽懂使用者的語音命令來控制應用程式。這兩個功能分別對應哪一類多模態應用情境?
文字轉圖像技術用於根據描述生成視覺創作,屬虛擬創作設計應用;語音轉文字技術則支援語音命令解析,是智慧助理的核心功能。
某研究機構要求其 AI 系統在每次輸出報告時,必須標示每一段結論的資料來源與依據文件。下列哪一組技術最能支援此需求?
RAG 在生成時會引用具體知識庫片段,搭配來源標記可讓每段輸出都有明確的資料出處,模型卡則記錄模型的設計依據,共同提升輸出的可追溯性。
某科技公司的法務部門在評估是否允許開發者使用 GitHub Copilot 時,提出了一項主要疑慮。下列哪一項最可能是他們最擔心的潛在風險?
Copilot 的訓練資料包含大量開源程式碼,存在生成內容與原始碼授權條款衝突的風險,企業使用前須評估此類智慧財產權風險。
某教育科技公司為遠端課程導入 Whisper,將老師的現場授課錄音自動轉換為文字逐字稿,供學生課後複習。Whisper 在此應用中的主要優勢為何?
Whisper 是 OpenAI 開發的高效能語音辨識(ASR)模型,其核心優勢在於對各種語言和口音都具備高準確度的語音轉文字能力。
某 SaaS 公司使用 No Code 平台建立了一個 AI 自動回覆客服系統,系統對所有客戶問題直接回覆,且無任何人工審查機制。這最主要違反了哪一項負責任 AI 原則?
負責任 AI 強調在高風險或對外互動場景中,必須保留人工干預與審查的能力,避免模型在無監督狀態下獨立運作,以防範誤導或錯誤回應帶來的風險。
某媒體公司想讓 AI 系統接收新聞圖片加上文字背景說明,然後自動生成一段新聞播報稿。下列哪一模型最具備執行此多模態任務的能力?
Flamingo 是 DeepMind 開發的多模態語言模型,能同時理解圖像與文字輸入,並生成相對應的複合格式輸出,適合圖文融合的生成任務。
某政府機關導入 AI 輔助公文處理系統,但系統對每個輸入問題和 AI 輸出的對應關係沒有任何記錄。當事後發生爭議時,無法查明 AI 給出了什麼回答。這最主要違反了哪一治理原則?
公部門 AI 系統的每一個決策與輸出都必須可被追溯,以確保在發生爭議時能釐清責任、進行法律與行政調查,這是問責性原則的核心要求。
某零售集團在雙十一購物節期間,將 ChatGPT 用於客服,發現 API 費用在尖峰 6 小時內飆升到平日的 20 倍。下列哪一策略最能有效控制成本?
控制輸出長度(減少不必要的冗長回應)並搭配量化等推理優化技術,是降低 LLM API 費用與雲端運算成本最直接有效的策略。
某 AI 招募平台發現訓練資料中某些族群的履歷樣本數量遠少於其他族群,為了確保模型對所有族群的推薦公平性,採用了對樣本少的族群自動加重訓練權重的機制。這主要強化了哪一項 AI 原則?
對訓練資料中代表性不足的族群進行加權訓練,是消除資料分布不均導致的偏誤、促進模型公平性的關鍵技術手段。
某企業導入 AI 生成財報摘要,卻發現輸出內容邏輯顛倒(如將收入成長描述為虧損),且無任何引用依據。最有效的改善方向是什麼?
透過結構化的 Prompt 設計提供明確任務指引,並以 RAG 補充外部知識庫,可有效穩定輸出結構,改善語意錯亂與缺乏依據的問題。
某消費品公司的行銷團隊使用 Midjourney 生成了一系列品牌視覺素材,準備用於全球廣告活動。上線前,法務部門應優先評估哪一項潛在風險?
圖像生成模型學習了大量有版權的圖像風格,生成內容若與已知品牌、藝術家作品風格高度相似,可能引發著作權或商標侵權爭議。
某 AI 求職媒合平台發現,模型對不同語言背景的求職者給出的職位建議信心分數差異很大,對某些語系用戶的推薦品質明顯較差。最可能的原因是什麼?
訓練資料的族群分布不均或歷史偏見,會導致模型對特定群體的表現不穩定,信心分數與推薦品質都受到資料偏誤的影響。
某圖書館數位化平台想讓 AI 系統判斷用戶上傳的圖片與其撰寫的文字說明是否內容相符,以過濾錯誤標注。下列哪一技術最適合用於這個圖文一致性判斷任務?
CLIP 能將圖像與文字映射到同一向量空間,透過計算兩者之間的相似度,可以判斷圖片與文字描述的語意是否一致,是圖文對應任務的核心技術。
某法院考慮導入 AI 輔助系統來分析案件文件,但法官表示若 AI 建議判決結果,他們需要能理解 AI 的推理依據。下列哪種設計最能提升此高風險應用的安全性與信任度?
在司法等高風險領域,人機共決設計(人類保有最終決定權)加上模型可信度指標(讓人類評估 AI 建議的可靠性)是負責任 AI 的核心要求。
某跨國企業引入 Gemini 模型,要讓同一篇產品說明文件能自動生成中文、英文、日文三個版本的摘要,且語意需保持一致。在評估部署前,哪一項功能應優先測試?
多語摘要應用的核心挑戰是確保不同語言版本的摘要在語意上保持一致且準確,這是跨語言生成應用最關鍵的品質評估指標。
某組織長期使用 ChatGPT API 處理業務,但從未記錄使用哪個模型版本、何時更新以及各版本的輸出差異。當稽核單位要求說明某個決策的 AI 輔助記錄時,將面臨哪種困難?
模型版本記錄與決策歷程是合規稽核的基本要求,若缺乏此類記錄,組織在面對內控審查或法律爭議時,將無法提供完整的決策軌跡。
某律師事務所導入 AI 翻譯工具,讓模型將英文法律合約翻譯成中文。測試時發現「Force Majeure(不可抗力)」等專業術語被翻譯成語意不正確的日常用語。建議採取哪一種改善策略?
法律術語具有高度專業性與語境特殊性,透過法律領域的專業語料庫進行微調,可使模型更準確地掌握術語定義與使用情境。
某中型企業的 IT 部門嘗試使用 Low Code 平台串接公司的 ERP(企業資源規劃)與 CRM(客戶關係管理)系統,卻在開發過程中遇到許多無法克服的技術障礙。最可能遭遇的主要挑戰是什麼?
Low Code 平台雖然降低了開發門檻,但對於需要緊密整合且邏輯複雜的企業核心系統(ERP/CRM),其架構彈性不足,難以實現多系統資料流與業務邏輯的完整整合。
某翻譯平台計劃使用 Gemini 為東南亞市場用戶提供泰文、越文、印尼文等多語言文本摘要服務。在正式導入前,最應評估哪一項技術能力?
多語摘要服務的核心品質取決於模型能否在不同語言間維持語意一致性,若語意對齊能力不足,摘要在不同語言版本間將出現邏輯差異。
某縣市政府計劃建置 AI 智能客服,讓市民能 24 小時詢問戶政、稅務等業務問題。若系統規劃時忽略了市民個人資料的收集與使用範疇,最可能違反哪一項原則?
政府機關的 AI 系統涉及大量市民個人資料,若未在規劃階段納入個資保護與法規遵循措施,將違反個人資料保護法等相關法規。
某軟體公司的開發團隊開始大量使用 GitHub Copilot 輔助撰寫程式碼,為確保程式碼品質並維持良好的開發維運流程,下列哪一做法應優先建立?
AI 生成的程式碼需要納入版本控制系統,並經由人工審核確認品質,才能確保程式碼的安全性、可維護性與一致性,避免不一致或未授權程式碼被直接部署。
某建築設計公司使用 DALL·E 生成建案的虛擬概念圖,用於向客戶提案。設計總監擔心這些生成圖像的設計概念可能被外部人員取得後複製。最適合採取哪一種保護措施?
保護 AI 生成的商業設計內容,最有效的方式是透過合約明確約定智慧財產權歸屬,並配合系統存取權限控制,防止未授權人員取得設計成果。
某機關計劃導入 AI 自動摘要系統,協助整理每週發布的法規更新文件。下列哪一個導入流程順序最符合最佳實踐?
生成式 AI 的導入最佳實踐是從問題定義與需求分析開始,經過小規模概念驗證(PoC),量化評估成效後,才進行正式上線推廣,以降低導入風險。
某廣告代理商想用 AI 圖像生成工具為客戶製作一批廣告視覺稿,每張圖都需要特定的構圖風格、色彩主調和主角描述。若要精確控制輸出結果,最關鍵的能力是什麼?
圖像生成模型的輸出高度依賴輸入的文字描述(Prompt),如何精確撰寫包含風格、構圖、主題等細節的 Prompt,是決定圖像生成品質的最關鍵因素。
某新創公司想導入生成式 AI 輔助業務,但目前公司的業務資料量少且格式不統一。在此條件下,最適合採取哪一種導入策略?
在資料品質尚未穩定的早期階段,縮小聚焦範圍、選擇單一任務進行小規模驗證,能有效降低風險並快速找到可行的應用模式。
某博物館導入 GPT-4V,讓參觀者可以上傳展品照片,AI 會結合照片內容和歷史背景文字說明,生成一段適合導覽的解說詞。GPT-4V 在此應用中的核心技術優勢是什麼?
GPT-4V 等多模態模型的核心優勢在於能同時理解並整合圖像與文字兩種不同模態的資訊,生成符合上下文語境的複合型內容輸出。
某 AI 稽核師在檢查一個信用評分模型時,發現模型對低收入族群的預測準確率顯著低於高收入族群。下列哪一項技術屬於「公平性(Fairness)」治理實踐?
公平性的核心技術在於修正訓練資料的分布偏誤,透過對弱勢族群樣本加權或重新抽樣,使模型對不同群體保持一致的預測表現。
某企業計劃使用 ChatGPT 協助法務部門起草供應商合約。為了確保未來若合約內容引發爭議時能追究責任,下列哪一項設計最為重要?
法律合約具有法律效力,若生成內容產生爭議,必須能追溯使用了哪個版本的模型、輸入了什麼指令、得到什麼輸出,這是問責性原則的核心實作。
某 Podcast 製作公司想開發一套系統,讓 AI 自動為節目生成背景音樂並搭配旁白語音播出。下列哪兩類模型的組合最適合此需求?
MusicLM 可根據文字描述生成背景音樂,TTS 模型可將文字腳本轉為旁白語音,兩者組合能實現完整的音訊內容自動生成流程。
某用戶詢問 AI 助理:「2024 年台灣總統大選的最終得票數是多少?」AI 助理信心十足地給出了一組完全不存在的虛假數字。這種現象屬於生成式 AI 的哪一類問題?
幻覺(Hallucination)是生成式 AI 最典型的風險之一,模型在沒有足夠知識支撐的情況下,會自行捏造看似合理但實際上並不存在的資訊作為回答。
某新創公司想把大型語言模型部署在低算力的邊緣設備上,作為離線問答系統使用。下列哪一種實務做法最能有效降低模型的推理成本?
模型量化(如 INT8 量化)與知識蒸餾等推理優化技術,可在不大幅犧牲精度的前提下顯著縮小模型體積,是降低邊緣設備部署成本的主流策略。
某組織的 AI 導入專案在 PoC 階段獲得了肯定,但在嘗試轉換為正式產品系統時卻遲遲無法推進,多次討論後仍然停滯。這種情況最可能的根本原因是什麼?
PoC 成功但無法產品化,最常見的原因是組織內部缺乏技術維運人才、預算規劃不足,或是業務需求與 AI 能力之間的對應關係從未被清楚定義。
某企業使用 Low Code 平台整合 ChatGPT API 建立員工自助服務系統,但系統需要依據員工的部門與職級動態調整回應內容與存取權限。開發過程中最可能遭遇哪一種技術困難?
Low Code 平台的預設模組難以對應複雜的企業權限管理邏輯,當需要多角色、動態身份映射等精細控制時,平台的封閉架構將成為最大的技術瓶頸。
某律師事務所評估導入 ChatGPT 來協助律師起草合約初稿,以提升工作效率。在選擇此工具時,下列哪一項考量是最不應被忽略的?
法律文件屬高風險應用,AI 生成的合約草稿必須有完整的合規驗證流程、人工審查機制與問責記錄,才能確保法律安全性。
某品牌顧問公司為客戶使用 Midjourney 生成品牌視覺識別方案,但 Midjourney 的訓練資料來源並不完全公開透明。法務部門最應擔心哪一類風險?
當訓練資料來源不透明時,模型可能學習了受著作權保護的藝術風格,生成的商業圖像可能與現有作品高度相似,引發著作權侵犯的法律風險。
某 AI 平台公司想使用 Gemini 同時處理多語言摘要和 Python 程式碼生成的混合任務。下列哪一項技術能力是此應用最關鍵的條件?
自然語言和程式語言在語法結構與語意邏輯上差異顯著,若無法針對不同語境採用適合的 tokenization 策略,混合任務的輸出品質將大幅下降。
某連鎖零售企業要求 AI 系統在生成每月銷售報表時,必須固定使用公司規定的標準語句格式(如「本月營收達成率為 XX%,較上月成長/下降 XX 個百分點」)。這種控制輸出格式的做法屬於哪類技術實作?
透過設計包含固定格式範例的 Prompt,可引導模型按照企業規範的語句結構與格式生成報告,這是 Prompt Engineering 的核心應用場景。
某公司在決定導入生成式 AI 之後,直接跳過試驗驗證階段,就開始全面部署上線。這種做法最可能導致哪一種問題?
PoC(概念驗證)是確保技術可行性與任務契合度的關鍵驗證步驟,跳過此階段直接大規模部署,將面臨效益不如預期或系統與業務需求不匹配的高風險。
某保險公司導入多模態 AI 系統,讓理賠人員上傳事故現場照片,AI 自動比對圖片與文字理賠說明,判斷兩者是否一致。下列哪一種技術組合最適合此應用?
CLIP 能將圖像與文字映射到共同的語意向量空間,進行跨模態的一致性判斷;GPT 則可對文字部分進行深度語意理解,兩者結合適合圖文核實任務。
某電商公司使用 DALL·E 生成商品主圖,但在設計師沒有撰寫詳細提示詞的情況下,大量生成結果風格迥異,無法符合品牌視覺一致性要求。這最可能是什麼原因造成的?
圖像生成模型的輸出高度依賴輸入 Prompt 的品質,沒有標準化的提示詞範本,每次生成的風格與內容將難以保持一致,無法應用於有品牌規範的商業場景。
某醫院計劃導入生成式 AI 協助臨床醫師快速查閱病患歷史病歷,以輔助診斷建議。在此應用中,哪一項考量應列為最優先?
醫療資料屬高敏感個人資料,在導入 AI 前必須確保系統具備符合醫療法規的隱私保護機制,這是合法合規使用的前提條件。
某企業將 ChatGPT API 串接到內部人資系統,讓員工可以詢問公司福利政策。但測試時發現 AI 給出的答案與公司實際規定不符。下列哪一種解決方案最有效?
RAG(Retrieval-Augmented Generation)能讓模型在回答時先從指定的公司政策文件中檢索相關內容,確保回應基於真實的內部規定,避免幻覺或資訊過時的問題。
某企業客服系統需要 AI 在回覆投訴客戶時使用同理心語氣,在回覆一般查詢時使用簡潔中立的語氣。下列哪一種方法最能實現這個差異化語氣控制?
透過在 Prompt 中加入明確的語氣指示詞(如「請用溫暖同理的語氣回覆」),可以有效引導模型在不同情境下採用相應的溝通風格。
某製造業公司用 AI 自動生成安全操作規程(SOP)文件,並直接分發給現場工人執行。若在生成過程中未考量勞工安全法規的合規性,最可能導致什麼後果?
安全操作規程具有法律合規意涵,若 AI 生成內容不符合勞工安全或行業規範,可能造成工安事故,並讓企業承擔法律責任。
某工廠的自動化生產線採用 AI 模型監控設備異常並觸發緊急停機指令。資安團隊擔心攻擊者可能透過在感測器數據中注入細微干擾,讓 AI 模型做出錯誤判斷。應採用哪一種技術來強化模型的抗攻擊能力?
對抗訓練透過在訓練過程中加入刻意設計的干擾樣本,讓模型學習如何在面對細微輸入干擾時仍維持正確判斷,是目前最主流的模型韌性強化技術。
某消費者保護機構要求,凡是使用 AI 做出影響消費者權益的決定(如貸款拒絕、保險費率計算),消費者都應有管道查詢決策依據並提出異議。下列哪一機制最能支援此要求?
問責性與人類監督原則要求建立審查機制和反饋通道,確保 AI 的決策行為可被追溯、可被質疑,且用戶有途徑尋求救濟。
某政府機關使用 ChatGPT 作為政策諮詢助理,讓民眾詢問政策相關問題。為避免 AI 對敏感政治議題發表不當言論,應搭配哪一種控制方法?
對於公眾服務的 AI 系統,在輸出層設置內容審查機制,針對政治敏感、偏頗或違規內容建立過濾規則,是控制風險的重要防護措施。
某投資顧問公司導入 AI 系統自動回覆客戶的投資配置詢問,但後來發現模型提供了誤導性的投資建議,且系統無法提供任何推理依據供客戶查閱。這最主要違反了哪一項 AI 治理原則?
金融投資建議屬高風險應用,當 AI 輸出錯誤且無法追溯決策邏輯時,同時違反了問責性(無法釐清責任)和可解釋性(無法說明依據)兩項核心原則。
某廣播公司使用 MusicLM 為 Podcast 節目自動生成背景音樂,但發現生成的音軌風格時而輕柔時而激烈,缺乏穩定性。建議採取哪一改善方式?
音樂生成模型的輸出品質高度依賴輸入語境的一致性,提供結構化且穩定的提示詞描述(如風格、節奏、情緒),是控制音訊生成一致性的有效方法。
某零售連鎖品牌使用 No Code 工具快速建立了一個 ChatGPT 驅動的聊天客服,但每當總部更新促銷規則或退換貨政策時,工程師都需要花很長時間才能完成系統更新。根本問題在哪裡?
No Code 平台的預設模組設計無法靈活應對業務邏輯的頻繁變動,當業務規則需要快速迭代時,平台的架構限制使維護工作變得耗時且困難。
某串流媒體平台想讓 AI 系統分析用戶上傳的短影片(含畫面與對話音訊),並自動生成一段文字內容摘要。下列哪一種模型架構最適合此多模態任務?
Flamingo 支援同時處理視覺(影片畫面)與語言輸入,能整合多模態資訊進行語意理解,再由 Transformer 語意編碼器生成高品質的文字摘要。
某設計公司使用 Stable Diffusion 生成了一批商業海報,其中一張圖出現了知名運動品牌的勾型 Logo 圖樣,但設計師表示自己從未在 Prompt 中指定任何品牌元素。此風險最屬於哪一類?
生成式圖像模型可能在訓練過程中學習了有版權的圖像元素,並在生成時無意間重現這些受保護的視覺符號,這屬於訓練資料溯源不透明導致的智慧財產權風險。
某金融機構的 AI 稽核部門懷疑信用評分模型對年齡超過 60 歲的申請人有不公平的偏見。應採用哪一種技術方法來量化評估此疑慮?
公平性評估需要透過量化指標(如不同群體的準確率差異、假陽性率差異等)來客觀衡量模型對各族群的差別對待,Fairness 評估工具和 Bias 偵測是標準做法。
某非營利組織想在資源受限的環境下部署 GPT 系列模型提供教育問答服務,但伺服器規格有限。下列哪一種策略最能有效降低部署成本?
模型量化(將浮點數精度降低為 INT8 等)與 TensorRT 等推理優化技術,能顯著降低模型的記憶體用量與計算需求,使有限硬體資源的部署成為可能。
某遊戲公司想為旗下角色扮演遊戲中的 NPC 角色開發專屬語音系統,讓每個角色有獨特的聲線並能模仿特定語音風格。下列哪一種模型組合最適合此需求?
VALL-E 等進階 TTS 模型能根據少量語音樣本模仿特定說話風格,搭配 Whisper 辨識輸入語音,形成完整的個性化語音互動系統。
某電商平台的商品評論分析系統使用 AI 自動分類顧客留言為正面或負面,主管想對系統的分類結果進行定期稽核,需要能看到每次分類決策的依據。應加入哪一種技術?
SHAP 等可解釋性工具能揭示每次分類決策中各輸入特徵的貢獻程度,讓稽核人員理解模型為何做出該判斷;Model Card 則提供模型的整體設計說明與適用範圍。
某政府機關的數位轉型評估報告指出,各部門對 AI 的期望功能描述非常模糊,不同部門的需求相互矛盾。在這種情況下,導入團隊最應優先執行哪一項工作?
若業務需求不明確,後續的 PoC 設計、模型選型與資料準備都將缺乏方向。業務需求盤點是所有 AI 導入工作的起點,必須優先於技術選型。
某律師事務所的 AI 法律助理在回覆問題時,頻繁引用錯誤的法條號碼(如將第 184 條誤引為第 148 條)。下列哪一技術最能有效提升法條引用的正確性?
透過 RAG 架構,模型在引用法條時會先從真實的法律資料庫中檢索,確保引用的法條號碼與內容有具體文件依據,大幅降低虛構或錯誤引用的機率。
某 HR 科技公司的員工反映,AI 績效評估工具在描述男性員工的業績時使用正向積極的語氣,描述女性員工時卻傾向使用保守謹慎的措辭。應優先檢查哪一項問題?
模型輸出的性別差異化語氣通常源自訓練語料中反映的歷史性別偏見,需系統性地檢查訓練資料的性別分布平衡性與標注標準。
某新創公司在完成 PoC 驗證後,向投資人報告說「AI 系統表現良好」,但被追問具體數字時卻無法提供任何量化資料。這種情況最可能源自什麼問題?
若在 PoC 設計階段就未定義可量化的評估指標(如準確率、處理時間、用戶滿意度),則無論測試結果如何都缺乏客觀依據,也無法支持後續投資決策。
某有聲書平台想開發一套系統,讓用戶輸入一段故事文字後,AI 自動生成有情感起伏的語音朗讀版本。下列哪一種工具組合最適合此需求?
ChatGPT 可對文字進行潤飾與內容生成,TTS 模型負責將文字轉換為語音輸出,兩者結合能實現從文字到有感情的語音朗讀的完整轉換流程。
某政府部門使用 AI 系統協助處理民眾陳情案件,立法委員要求所有 AI 系統的行為都必須能接受事後查核。下列哪一機制最能滿足此要求?
公部門 AI 系統必須能對政治責任與法律調查負責,建立完整的決策記錄與定期審核機制,是滿足問責性要求的核心架構設計。
某軟體公司為開發團隊導入 GitHub Copilot 後,資安部門發現開發者在 IDE 中輸入的程式碼(包含資料庫連線字串與 API 金鑰)可能被外部服務收集。資安部門最可能提出哪一項主要疑慮?
Copilot 等雲端 AI 程式碼輔助工具在使用過程中會將開發者的輸入送至外部伺服器,若輸入包含機密資訊(如 API 金鑰、資料庫密碼),存在被記憶或洩漏的資安風險。
某縣市政府的災害防救單位計劃建置多模態 AI 系統,能在災害發生時自動生成結合現場照片與官方語言的緊急公告。導入時應列為首要條件的是什麼?
緊急公告需要語境精準且圖文一致,訓練資料的代表性與專業性(災情圖像 + 官方語言)直接決定模型在緊急情境下的生成精度與可靠性。
某跨國企業的業務會議常以中英文夾雜方式進行,會議記錄人員希望使用 Whisper 將錄音自動轉為逐字稿。面對中英夾雜的語音,應採用哪一種處理方式?
Whisper 本身支援多語語音辨識,對於多語夾雜的情境,需要搭配語種自動識別與語境切換模組,才能準確辨識並轉錄不同語言段落。
某銀行將 ChatGPT 整合進客服系統處理信用卡爭議申請,但行員表示有些 AI 回覆內容有誤或語氣不當,需要介入更正。下列哪一系統設計最能支援此需求?
在高風險的金融客服場景中,設計觸發條件(如涉及爭議金額超過門檻、用戶不滿意等)自動轉接人工審查的人機共決流程,是降低 AI 錯誤風險的最佳實踐。
某食品公司計劃使用 Midjourney 為旗下 30 款產品批量生成包裝設計圖,要求所有設計在視覺風格上必須保持高度一致性。應採取哪種控制策略?
圖像生成模型的輸出風格高度依賴 Prompt,透過標準化的 Prompt 模板(固定風格描述詞、色彩指定、構圖要求)和一致的參數設定,是確保批量生成風格統一的關鍵。
某心理健康平台的 AI 對話助手在回覆用戶時,被發現幾乎所有回覆都充斥著正面鼓勵語句,即使面對需要嚴肅對待的危機情境也如此,完全忽略客觀評估。這最可能是什麼原因造成的?
若訓練語料偏重正向情感表達,模型會學習並複製這種傾向,在任何情境下都傾向輸出正面措辭,導致回應缺乏客觀性,在高風險情境中尤為危險。
某企業在評估導入生成式 AI 工具時,選型委員會主要以「GPU 規格」和「API 費用」作為唯一決策依據,最終選擇了一款成本最低的圖像生成工具,卻用來處理文字摘要任務。最可能產生什麼結果?
選擇 AI 工具時必須以「任務適配性」為核心考量,若選型僅依賴成本或硬體指標而忽略任務類型,最終將選出錯誤的工具,造成效能低落與資源浪費。
某跨國消費品集團計劃使用 Gemini 為亞洲、歐洲、美洲等不同市場自動生成符合當地文化語境的產品說明書。下列哪一項技術能力是此應用的核心需求?
Gemini 的多語言與語境調整能力,使其能根據不同市場的語言習慣與文化背景生成適切的本地化內容,這是跨文化產品說明書生成的核心技術需求。
某合規科技公司的 AI 法規查詢系統頻繁出現虛構的法規條文(如引用了根本不存在的「金融監理法第 999 條」)。建議採用哪一種技術方案來解決此問題?
RAG 將生成過程與真實的法規資料庫綁定,模型在生成回應前必須先從資料庫中檢索相關法條,有效消除虛構法規條文的幻覺問題。
某廣播電台導入 TTS 語音合成系統,自動將新聞稿轉為語音播出,但收聽者反映聲音聽起來像機器人,語調平板、情感單調。應如何改善?
現代 TTS 系統支援 prosody 控制標記,透過加入情緒(如「喜悅」「嚴肅」)、停頓、重音等語氣標籤,可使語音輸出更自然、富有表現力。
某科技公司將大型語言模型部署在雲端平台上,每月帳單顯示推理成本遠高於預期,且碳排放量也受到永續長的關注。下列哪一組技術策略最能同時降低成本與能耗?
量化(Quantization)可降低模型精度需求而節省記憶體,知識蒸餾(Knowledge Distillation)可訓練出效能接近大型模型的輕量版本,兩者都是主流的推理成本與能耗優化策略。
某跨國企業的法律部門評估使用 ChatGPT 自動生成跨境併購合約草稿,以提升效率。若未在系統中建立人工審核機制,最可能違反哪一項 AI 治理原則?
跨境合約具有高度法律風險,若 AI 生成內容未經人工審核就直接使用,違反了問責性原則(無法釐清責任歸屬)和人類監督原則(決策缺乏人類最終把關)。
某建築事務所導入 GPT-4V,讓 AI 系統分析施工現場照片,並結合工程師撰寫的施工日誌文字,自動生成每日進度報告。此應用的核心技術需求是什麼?
GPT-4V 的多模態編碼器能同時處理圖像(施工照片)和文字(施工日誌)兩種輸入,整合兩者的語意關聯,才能生成準確的進度報告。
某法律科技公司想讓 AI 模型能精確理解並生成台灣公司法、證交法等專業法律條文。下列哪一策略最能提升模型在法律領域的專業性?
法律文件有其獨特的術語系統與語境邏輯,透過在法律專業語料庫上進行微調,模型能學習並掌握特定領域的語意與邏輯,顯著提升法律任務的準確性。
某智慧零售公司計劃建置一套全方位的 AI 客服系統,讓顧客能用語音提問、上傳商品圖片詢問,系統也能生成文字與語音回應。應採用哪一類模型架構?
同時支援語音輸入、圖像理解與文字/語音輸出的客服系統,需要一個能整合多種模態資訊的多模態架構,這是實現全通道智能互動的技術基礎。
某物流公司使用 Low Code 平台建立自動化客服,系統需要整合來自訂單系統、庫存系統、配送追蹤系統三個不同格式的資料來源。開發過程中最可能遭遇的技術困難是?
Low Code 平台雖便於開發,但在面對多個異質資料來源的動態整合時,其有限的資料轉換彈性會成為主要技術瓶頸,導致資料格式不一致難以維運。
某醫療器材公司使用生成式 AI 輔助撰寫美國 FDA 送審文件,但系統生成的描述中出現了不符合 FDA 規範的行銷性語句,這在法規審查中屬於重大違規。最可能的根本原因是什麼?
在法規敏感的文件撰寫任務中,若系統缺乏針對特定法規要求的輸出審查機制,模型可能生成違反 FDA 法規的用語,造成嚴重法律風險。
某電商平台導入 GPT-4V,讓用戶上傳退貨商品照片,AI 自動判讀損壞程度並生成退款建議。評估此系統時,最關鍵的模型能力評估項目是什麼?
此應用的核心是讓 AI 理解圖像內容(損壞程度)並對應生成文字判斷(退款建議),這需要評估模型的多模態輸入整合能力與圖文語意轉換的準確性。
某大型電商平台導入生成式 AI 處理客服對話已滿一年,但系統從未記錄任何 AI 回覆的內容與決策依據。當消費者保護機構要求調閱 AI 的歷史回覆記錄時,將面臨哪一項治理問題?
未記錄 AI 模型的輸入輸出歷程,使得發生爭議時無法追溯決策依據、無法釐清責任歸屬,嚴重違反問責性與可追溯性的治理要求。
某政府的數位服務平台使用 Claude 模型生成政策說明,但用戶反映模型常把「行政程序法」和「行政執行法」混淆,給出錯誤的流程說明。應如何改善此問題?
Few-Shot Prompting 透過在提示詞中提供具體的術語定義與正確使用範例,能有效引導模型學習區分相近術語,提升輸出的專業準確性。
某跨國服務平台使用 ChatGPT 同時服務說中文、英文、泰文的用戶群,發現 AI 對泰文用戶的回覆品質明顯低於其他語言。下列哪一策略最能改善跨文化與跨語言的準確性?
低資源語言(如泰文)在訓練資料中通常代表性不足,需要針對性的微調訓練與語言特定的 Prompt 設計,才能提升多語場景下的回覆品質。
某企業的資安團隊發現 GitHub Copilot 生成的程式碼中出現了 SQL Injection 漏洞的寫法,若直接部署將產生嚴重的資安風險。應建立哪一種防範機制?
AI 生成的程式碼可能包含安全漏洞,必須在部署前透過靜態程式碼掃描工具自動檢測安全問題,並配合人工審查確認,才能確保程式碼的安全性。
某企業在內部知識管理系統中整合了 ChatGPT,希望員工詢問問題時,AI 的回答能明確標示「參考文件:《XX 作業規範》第 3.2 節」這樣的具體來源。應採用哪一種技術架構?
RAG 架構在生成回應的同時,會從文件庫中檢索並引用具體的文件段落,可以在回答中明確標示資訊來源,滿足可追溯性與可解釋性的需求。
某國防相關研究機構計劃導入語言模型協助研究人員整理技術文件,但機構最擔心的是研究人員輸入的機密技術資訊會被外部服務記憶並洩漏。最應強化哪一種防護技術?
差分隱私能防止模型從輸入資料中學習並記憶機密資訊,上下文記憶限制則能確保每次對話結束後不保留任何敏感輸入,是高安全需求場域的必要防護機制。
某線上學習平台使用 TTS 模型將課程內容轉為語音,供視障學員收聽。學員反映語音聽起來缺乏語氣起伏,所有句子都以相同速度和音量播出,難以區分重點與補充說明。應加入哪一種設計改善?
韻律(Prosody)控制是 TTS 系統的重要功能,透過設定語速快慢、音量高低、停頓位置和語氣強調,能讓語音輸出更接近自然人類說話的表現力。
某公司想建立一套自動新聞播報系統:AI 先閱讀當日新聞稿並生成播報摘要,再將摘要以語音播出。下列哪一種工具組合最適合此完整流程?
ChatGPT 負責理解新聞稿並生成播報摘要文字,TTS 模型將文字轉換為自然語音播出,兩者結合構成完整的文字理解到語音輸出的自動新聞播報流程。
某教育機構導入 AI 輔助歷史課程設計,但有家長投訴,AI 生成的課程內容在描述某段歷史時明顯偏向特定政治立場。這屬於哪一類 AI 風險?
訓練資料若帶有特定政治或文化立場的偏見,模型在生成教育內容時會放大這些傾向,對公平性要求高的教育場域,資料偏見是最需要防範的風險之一。
某新創公司的 AI 導入 PoC 階段進行了三個月,但期末報告只寫了「系統已運作」,沒有任何量化數據。當董事會詢問是否應繼續投資時,無法給出明確建議。最可能的根本原因是什麼?
PoC 若未在設計初期就定義具體可量化的評估指標(如任務完成率、用戶滿意度、處理時間縮減等),測試結束後就無法提供客觀的投資決策依據。
某保險公司部署了 AI 自動核保系統,對低收入族群的保費計算結果引發爭議。當受影響的申請人要求解釋核保結果並申請複核時,卻發現系統完全沒有相關機制。最主要違反了哪一項 AI 原則?
負責任 AI 要求系統必須保留使用者申訴與複核的管道,並確保有人類監督機制介入,讓受影響的個人有途徑對 AI 決策提出異議並獲得說明。
某地方政府計劃使用 ChatGPT 協助公務員起草公文,但曾發生 AI 引用了不存在的行政命令編號的案例。下列哪一種技術設計最能有效降低此類問題?
政府公文需真實且合規,應結合官方法規資料庫進行引用驗證,確保 AI 生成的法規編號與條文內容均有真實文件依據,避免虛假引用。
某法院想透過 No Code 平台建立 AI 輔助工具,自動生成判決書初稿中的制式段落。開發過程中,法院資訊組發現工具無法引用最新頒布的法令且缺乏語義審核。最可能的技術原因是?
No Code 平台的封閉架構通常缺乏連接外部法規資料庫的能力,也難以建立法律術語的語義稽核邏輯,這在法律應用場域是關鍵的技術瓶頸。
某企業在規劃導入生成式 AI 做為內容生成平台時,完全沒有規劃訓練資料的來源記錄與資料治理機制。長期下來最可能導致哪一種問題?
缺乏資料治理意味著模型可能學習到偏誤或未授權的資料,且問題發生時無法追溯來源進行修正,同時違反公平性(偏誤資料影響輸出)與問責性(無法說明資料依據)。
某消費電子公司計劃製作新品發表會的簡報,需要 AI 同時生成精美的概念圖和配套的產品說明文案。下列哪一組工具組合最適合?
ChatGPT 擅長生成高品質的文案、說明與敘述性內容;Midjourney 專長於生成視覺吸引力強的圖像,兩者結合是製作圖文並茂發表會簡報的最佳組合。
某關鍵基礎設施的 AI 系統(如電網調度 AI)面臨攻擊者可能透過偽造感測器數據欺騙模型的威脅。下列哪一種技術最能提升模型對抗此類對抗樣本攻擊的能力?
對抗訓練透過在訓練過程中刻意加入對抗性擾動樣本,讓模型學習如何在面對惡意干擾時做出正確判斷,是目前提升 AI 系統對抗攻擊能力的標準方法。
某跨國 HR 平台在東南亞各國市場推出 AI 招募助理,但發現系統對使用泰文、越文、印尼文的求職者表現明顯較差,回覆品質遠低於英文用戶。應如何修正?
低資源語言在通用模型中往往因訓練資料不足而表現較差,需要針對目標語言進行微調,並確保各語言的訓練語料有均衡的代表性,才能改善多語一致性。
某電商平台的 AI 商品描述生成系統被反映輸出風格極不穩定:有時文字華麗誇張,有時又過於簡短,完全無法維持品牌一致的溝通風格。最有效的改善策略是什麼?
Beam Search 能提升生成的穩定性與品質,減少極端輸出;標準化 Prompt 範本(明確指定語氣、字數、格式)進一步約束輸出風格,兩者結合能有效提升輸出一致性。
某市政府將 ChatGPT 部署為市民諮詢助理,回答道路工程申請流程等問題。某日有市民反映,助理告知他們需要填寫一份「道路開挖許可附件 Z 表」,但實際上這份表格根本不存在。這屬於哪一類 AI 風險?
幻覺是生成式 AI 最核心的風險之一,模型在沒有確切知識依據的情況下,會自行生成看似合理但實際上並不存在的資訊(如虛假的表格名稱),誤導使用者。
某電信業者使用 GPT 系列模型處理客服問題,但同一個問題(如「如何查詢帳單」)每次得到的回覆語氣和格式差異很大,造成品牌形象不一致。應採取哪一種改善方式?
透過設定明確的語氣規範(如「請用友善專業的語氣」)和輸出格式要求的 Prompt,並降低取樣溫度(temperature),可以顯著提升輸出風格的一致性。
某醫療 AI 系統在啟用差分隱私保護後,資安團隊發現透過對 AI 回覆進行多次查詢與比對,仍能推測出特定患者的病歷資訊。應優先強化哪一種機制來徹底防範此問題?
若透過多次查詢能推測出個人資料,代表差分隱私的保護強度(epsilon 值)設定不夠嚴格,需調整至更小的 epsilon 值,同時強化記憶限制,防止跨查詢的資訊洩漏。
某保險公司的理賠部門想導入 AI 系統,讓理算師上傳事故現場照片,AI 自動分析圖像並生成理賠評估文字報告。最適合執行此任務的架構是什麼?
Flamingo 能同時輸入並理解圖像(事故現場照片)和語境資訊,再由文字解碼器生成結構化的評估報告,是此類圖像輸入、文字輸出任務的理想架構。
某企業的 AI 文件生成系統頻繁輸出與任務無關的段落,例如在撰寫財務報告時突然插入完全不相關的公司沿革介紹。最有效的改善策略是?
透過明確的任務邊界指令(告知 AI 只輸出什麼類型的內容)和具體的輸出範例,配合適當的溫度控制,可以有效減少模型產生不相關內容的問題。
某廣告公司的 TTS 語音廣告系統被客戶投訴,生成的語音聽起來毫無起伏,重點資訊(如折扣金額、截止日期)和一般說明用同樣的語速和音量播出,難以區分。應如何改善?
Prosody 控制允許對特定詞語加重音、調整語速(重點資訊說慢一點)、設定停頓(讓聽眾有時間吸收),是提升 TTS 語音廣播表現力的核心技術手段。
某招募平台在自我評估後發現,AI 篩選系統對非名校畢業的求職者給出的初審通過率顯著偏低,明顯存在學歷偏見。下列哪一種技術改善方式最為有效?
修正模型偏見最直接的方法是從資料層面介入,對訓練資料中代表性不足的群體(非名校畢業生)進行加權,確保模型學習到更公平的決策依據。
某企業的 ChatGPT 客服機器人被反映常常生成格式混亂的回覆:有時條列式、有時段落式、有時還夾雜 Markdown 語法卻無法正確顯示。應如何修正?
在系統提示詞(System Prompt)中明確指定輸出格式(如「請使用純文字格式,用數字編號條列回覆」),是控制 ChatGPT 輸出格式最直接且有效的方法。
某跨部門知識管理系統整合了 ChatGPT,但系統從未記錄員工的查詢內容與 AI 的對應回覆。六個月後,稽核部門要求查核某項 AI 給出的建議是否曾誤導業務決策,卻找不到任何記錄。最主要違反了哪一治理原則?
問責性要求所有 AI 決策及其依據都必須有完整記錄,以便事後追溯與責任釐清。缺乏查詢與回覆記錄,使得稽核與責任追究都無從進行。
某集團使用 No Code 平台串接各子公司(製造、銷售、財務)的資料來源,想讓 AI 自動生成跨部門整合報告。開發過程中頻繁遇到各部門資料欄位名稱不一、格式衝突的問題。主要原因是什麼?
No Code 平台的資料整合能力有限,在面對多個有著不同資料格式與業務邏輯的異質系統時,往往無法靈活進行資料映射與格式統一,導致跨部門整合困難。
某銀行導入 AI 系統協助房貸審核,監管機關要求銀行能在 72 小時內向申請被拒的客戶說明具體拒絕原因,包括哪些因素影響了 AI 的判斷。應加入哪一種技術能力?
SHAP 和 LIME 能為每次 AI 決策生成具體的特徵貢獻解釋(如「收入低於門檻」「負債比過高」),讓銀行可以向客戶提供具體且可理解的拒絕原因說明。
某國際電商平台導入 Gemini 模型,讓客服系統能同時服務說粵語、普通話、英文、泰文的顧客,並在同一對話中切換語言。評估 Gemini 是否適合此應用時,最關鍵的評估項目是什麼?
多語客服最核心的技術挑戰是:當對話在語言間切換時,AI 能否維持語境理解的一致性,避免語意因語言切換而丟失或錯誤解讀。
某律師事務所使用生成式 AI 模型協助起草商業合約,三個月內模型更新了三個版本,但每次更新都未留存版本號碼與輸出差異記錄。後來在訴訟中,對方律師質疑某份合約中的特定條款是 AI 錯誤生成的,事務所卻無法確認該合約是由哪個版本的 AI 生成。這主要違反了哪一項治理要求?
問責性要求所有影響法律或業務決策的 AI 輸出都必須有版本記錄,讓責任歸屬能夠追溯。缺乏版本管理使得在爭議發生時無從確認 AI 的輸出依據。
某製造業公司導入 ChatGPT 作為員工知識查詢助理,回答如「X 型號機台的保養週期」等問題,但沒有連接公司的技術手冊資料庫。最常見的系統問題是什麼?
未整合企業內部知識庫時,ChatGPT 只能依賴通用訓練知識回答,無法提供符合公司特定機台、特定流程的精確答案,導致回覆過度泛化或不準確。
某新藥研發公司的 AI 文獻分析系統在 PoC 階段只測試了 200 篇論文,表現優異。但正式上線後,系統每天需處理 5,000 篇以上的論文,準確率大幅下滑且系統頻繁超時。最可能的根本原因是什麼?
PoC 通常在小規模受控環境中測試,若未評估正式部署時的資料量與系統負載,上線後可能因規模差異過大而出現效能問題,需重新調整架構與部署策略。
某旅遊公司使用 DALL·E 生成各旅遊目的地的視覺形象圖,用於官網和社群媒體。行銷總監發現不同設計師生成的圖像風格差異很大,完全無法統一品牌視覺。下列哪一項因素最關鍵影響輸出品質與一致性?
DALL·E 的圖像生成品質與一致性幾乎完全由 Prompt 決定,詳細描述風格(如「柔和色調的水彩風格」)、構圖(如「廣角、黃金時段光線」)是確保輸出一致的關鍵。
某上市公司的法遵部門計劃導入 ChatGPT 協助監控員工通訊,自動標記可能違反金融法規的對話。部署前,最應強化哪一項設計?
在法規敏感的合規監控場景,AI 的標記結果必須經過合規驗證機制的二次確認,確保標記準確且符合法規解釋,避免誤判或漏判造成法律風險。
某跨國律師事務所想使用 Whisper 將來自 15 個國家客戶的電話錄音自動轉為逐字稿,並依語言分類建檔。下列哪一項功能對此應用最為關鍵?
對多語言錄音進行自動分類建檔,需要 Whisper 具備準確的語種辨識能力(判斷這段錄音是哪種語言),以及說話人識別能力(區分不同說話者),才能正確分類歸檔。
某線上諮詢平台的 AI 系統被反映,用戶只是詢問「如何申請退款」,AI 卻給出了一整頁包含公司完整退款政策說明、歷史修訂紀錄的冗長回覆。應如何調整以改善此問題?
降低 temperature 讓模型更傾向選擇高機率且簡潔的回答,同時在 Prompt 中明確指定「請用三句話以內回答」等長度限制,能有效減少不必要的冗長輸出。
某企業的 AI 法律合約審查工具在分析勞動合約時,常將「終止勞動契約的通知條款」與「資遣程序的法定流程」混淆,導致給出錯誤的法律建議。建議採用哪一種方式改善?
法律術語的語義邊界需要精確定義,透過在 Prompt 中提供清晰的術語說明與區分案例(Few-Shot),並對法律語境進行微調,能提升模型對相近術語的辨別能力。
某時尚品牌公司使用 Stable Diffusion 生成旗下品牌的季節性形象圖,法務部門擔心生成的圖像可能侵犯其他設計師的創作權利。最應警惕哪一類風險?
Stable Diffusion 等圖像生成模型在訓練中學習了大量可能受著作權保護的藝術作品,生成的商業圖像若與原有作品高度相似,存在著作權侵犯的法律風險。
某汽車製造廠想用生成式 AI 協助現場工人更快記錄生產線的異常狀況,工人可以直接用口語描述問題,AI 自動將其轉化為結構化的異常報告。最適合搭配哪一技術方案?
結合 ChatGPT 的自然語言理解能力、企業現有的 SOP 異常類型資料庫,以及標準化的報告模板,能將工人的口語描述自動轉化為格式統一、可直接用於品管追蹤的結構化異常報告。
某律師事務所使用生成式 AI 模型協助處理重大訴訟案件的法律摘要,六個月內模型更新了三個版本,但每次更新都未留存版本號碼與輸出差異記錄。當委託人質疑某份摘要的準確性時,事務所無法確認是哪個版本生成了問題摘要。最主要違反了哪一項 AI 治理原則?
對於影響重大法律決策的 AI 應用,必須記錄模型版本演進與各版本的輸出行為,才能在爭議發生時追溯問題來源並釐清責任,這是問責性原則的核心要求。
某旅遊導覽公司想建立一套自動化語音導覽系統:AI 先根據景點資料生成一段導覽介紹文字,再以語音方式播放給旅客收聽。下列哪一組工具組合最適合此完整需求?
ChatGPT 負責根據景點資料生成自然流暢的導覽介紹文字,TTS 模型(如 VALL-E)將文字轉為語音播放,兩者組合能實現完整的景點導覽語音自動生成服務。
一家電商公司導入 ChatGPT 自動生成產品規格說明,但發現模型回答常與官方技術手冊內容不符。下列哪種改善方式最合適?
RAG(Retrieval-Augmented Generation)架構能讓模型在生成回應時同步查詢企業內部知識庫,確保產品說明內容與官方技術手冊一致,提升專業性與準確性。
某保險公司希望部署多模態 AI,讓客戶上傳損害現場照片並同步錄音說明,系統自動產出理賠摘要。下列哪項系統能力最為關鍵?
多模態生成系統需將圖像與語音資訊整合並對齊語意,才能輸出結構完整的摘要。多模態融合與語意對齊是使不同輸入模態形成一致輸出的核心能力。
某金融機構導入 ChatGPT 處理客服問答,發現模型有時對敏感詞彙(如投資虧損、糾紛)辨識失準,輸出不當內容。建議採用下列哪種控制技術?
針對敏感詞彙辨識失準的問題,最有效的控制方式是建立白名單/黑名單審查機制,在模型輸出後進行過濾,防止不當內容被傳遞給使用者,是客服安全設計的核心一環。
一家連鎖零售商導入 Whisper 模型,將客服電話錄音自動轉為文字記錄,但發現辨識準確率偏低。最可能的主因為何?
Whisper 雖具備強大的語音辨識能力,但其表現仍高度依賴語音來源品質。當錄音環境嘈雜、背景雜訊過高時,辨識精度會明顯下降,這是語音 AI 應用中最常見的失準原因。
一家跨國科技公司希望利用生成式 AI 自動生成多語版本的產品說明書,並確保中、英、日三種語言的輸出風格保持一致。應採用哪種方法?
多語輸出風格一致性需透過平行語料庫提供跨語言對應範例,並針對目標語言進行風格微調,使模型學習在不同語言中維持相同的語氣與用詞規範。
某媒體公司導入生成式 AI 協助撰寫電視廣告腳本,但未在 Prompt 中規劃場景轉換、角色動作與敘事節奏。最可能出現哪種問題?
影視腳本需具備完整的情節邏輯與敘事節奏。若 Prompt 未包含場景元素規劃與結構設計,生成式 AI 的輸出將缺乏轉場脈絡,造成段落雜亂、故事線混亂的問題。
一家中小企業使用 No Code 工具建立 AI 問答系統,但發現無法將公司內部 FAQ 文件嵌入為知識來源,導致回答不準確。最應改善哪一項?
No Code 平台若封閉且不支援外部知識源接入,模型將只能依靠預訓練資訊回答,無法反映企業內部資料。升級至支援 API 串接的平台或改用低代碼模組是解決此問題的正確方向。
某電信業者計畫建置 AI 智慧語音客服系統,讓使用者可以用說話方式提問並獲得語音回答。下列哪一組工具整合最為適合?
完整的語音互動客服系統需要三個模組:Whisper 負責語音辨識(語音轉文字)、ChatGPT 負責理解與回答、TTS 負責將文字轉回語音輸出,三者結合可實現端對端語音對話體驗。
一家律師事務所希望導入 ChatGPT 對多份合約文件進行跨部門摘要比對,找出條款差異。最適用的設計方法為何?
跨部門文件摘要比對需要一致性的格式輸出,結構化 Prompt 模板能確保每份摘要涵蓋相同的欄位(如條款名稱、適用條件、違約後果),降低語意落差並提高比對效率。
某公司客服機器人收到使用者輸入「請幫我把這份說明翻譯成英文並摘要重點」,但模型只完成翻譯而未摘要。應如何改善?
當使用者輸入包含多個子任務(翻譯+摘要)時,模型容易只處理部分指令。採用 multi-step prompt chaining 可將任務拆解為獨立步驟,確保每個子任務都被正確執行。
在負責任 AI(Responsible AI)的設計框架中,「人類監督」原則最主要應落實在哪個環節?
人類監督原則要求在 AI 系統中設計讓人介入的機制,包括使用者回饋管道與人工審查流程,確保當模型輸出有誤時能被及時發現並修正,是防止錯誤決策的重要防線。
某企業部署 GPT 模型於內部問答系統後,發現回應延遲明顯增加,且每月 API 費用遠超預算。最合適的處理策略為何?
模型壓縮技術(如知識蒸餾和量化)能在保持效能的前提下大幅減少模型參數量,推理優化則降低延遲與運算成本,是應對部署後速度慢、成本高問題的標準解決方案。
某法律科技公司導入 AI 模型輔助合約審查,但模型頻繁將「可解約條件」與「終止通知期限」混淆。最需要改善哪一項?
合約審查中的法律術語語意精確度至關重要。透過對特定法律概念進行語義標註,並以合約語境進行微調,能讓模型精確區分相似但不同的法律術語,減少混淆。
某有聲書平台使用 TTS 模型生成朗讀內容,但用戶反映語音聽起來過於機械、缺乏自然語調。應採用哪種技術改善?
TTS 語音機械感通常源於缺乏自然的語調變化。語者嵌入技術能模擬特定說話者的聲音特徵,韻律控制(prosody)則調整語速、停頓與強調,兩者結合可顯著提升語音自然度。
某法律 AI 助理在回答用戶法律問題時,引用了不存在的條文編號(如「民法第 9527 條」)。這個問題最可能的根本原因為何?
生成式 AI 引用不存在的法條是典型的幻覺(hallucination)問題。解決方法是將模型與官方法條資料庫整合(如 RAG),並加入語義核查機制驗證引用是否真實存在。
某零售企業使用 Low Code 平台建立客服對話流程,但每當促銷活動規則改變,就需要花費大量時間修改流程邏輯。這最可能是哪種限制?
Low Code 平台的主要限制之一是當業務邏輯頻繁變更時,平台的模組化程度和邏輯擴展性往往不足,導致每次業務規則調整都需重新配置大量流程,效率低落。
某新創公司在產品開發初期,希望快速驗證 AI 聊天機器人的市場反應。採用 No Code 工具的最大優勢為何?
No Code 工具最核心的優勢在於不需要程式開發能力就能快速搭建功能原型,非常適合產品開發初期的 MVP 建立與快速市場驗證,大幅縮短試錯週期。
某企業導入 ChatGPT 作為內部知識自動摘要工具,在評估工具適用性時,應最優先考量哪一特性?
工具選擇的首要原則是任務適配性。用於摘要任務的模型,應選擇針對摘要生成效果調校過的版本,而非通用問答模型,確保輸出具備精練、重點突出的特性。
某製造商希望利用生成式 AI 自動撰寫設備維護手冊,但模型無法讀取公司內部的零件資料庫。其原因最可能是什麼?
生成式 AI 模型本身不具備存取外部資料庫的能力,需透過 RAG(Retrieval-Augmented Generation)架構建立橋接機制,才能在生成內容時引用企業內部的零件資料或知識庫。
某廣告公司評估使用 Midjourney 為客戶品牌生成視覺圖像,最應確認下列哪一條件?
品牌視覺設計要求高度一致的風格輸出。使用 Midjourney 時,最需確認工具能否透過 Prompt 精準控制視覺風格,並在多次生成中維持品牌調性的一致性。
某醫療機構導入 GPT-4V 多模態模型,讓醫師上傳 X 光圖像與文字描述,自動產出初步診斷報告。下列哪項能力最為關鍵?
GPT-4V 等多模態模型的關鍵能力在於有效整合圖像(X 光)與文字描述,將兩種模態的語意對齊後形成連貫的報告輸出。若多模態編碼不精確,診斷結果將失去參考價值。
某軟體公司導入 GitHub Copilot 協助自動撰寫程式文件,但生成內容與實際程式邏輯常不對應。最關鍵的改善方向為何?
Copilot 生成的文件若與程式邏輯不符,核心問題在於缺乏與專案實際程式碼的語義對齊。透過嵌入技術建立程式碼與文件的對應關係,能使生成說明更貼近實際實作邏輯。
一家金融機構計畫導入生成式 AI 自動化內部審核流程,高層主管特別要求資料安全與法規合規。評估工具時應優先確認哪一項?
金融機構對資料安全的要求極高,工具評估時最優先確認的是平台是否具備資料隔離(防止跨客戶資料混用)與差分隱私等隱私保護技術,以確保符合金融法規要求。
某國際電商平台計畫導入生成式 AI 處理多語言客戶服務,涵蓋中文、英文、泰文等市場。下列哪個導入面向屬於首要考量?
多語客服最核心的技術需求是語意對齊(確保不同語言表達相同意思)與高品質的多語生成能力。若工具無法有效處理語言間的語意差異,客服品質將因語言而有明顯落差。
某企業在評估 AI 導入可行性時,發現現有資料集有大量缺值、格式不統一,且數值分布異常。此時應延後哪個階段?
PoC 的目的是驗證 AI 方案的可行性,而資料品質直接決定驗證結果的可信度。若資料清理未完成且存在嚴重的分布異常,PoC 測試結果將失去參考價值,應先完成資料整備再進行試驗。
某企業正處於生成式 AI 導入規劃的「資源配置」階段,下列哪項應為此階段的核心評估重點?
「資源配置」階段的核心任務是確保 AI 專案具備執行所需的全方位資源,包括基礎設施(雲端服務)、工具選型(平台工具)、人員配置(AI 工程師、業務人員)以及持續維運的支援能力。
某公司正進行生成式 AI 的 PoC 成效評估,高層需要決定是否推進正式部署。下列哪一指標最有助於支撐此決策?
PoC 評估的目的是判斷方案是否可行並值得投資。最關鍵的依據是來自真實使用者的回饋,以及功能是否如預期運作的可行性測試結果,而非技術參數本身。
某法律科技新創公司的 AI 系統在生成合約條款時,輸出了多條現實中不存在的法律規定。應採用何種風險控制措施?
生成不存在的法律內容是典型的幻覺(hallucination)問題。解決方法是透過 RAG 架構讓模型必須基於真實法條資料庫進行生成,同時加入人工審查作為最後防線,確保輸出合規。
一家人力資源科技公司發現其 AI 履歷篩選系統對特定性別與年齡群體的評分存在明顯偏差。下列哪種技術對策最適合?
AI 系統出現性別或年齡偏見,根本原因通常是訓練資料存在偏差。需透過偏誤偵測工具找出問題來源,再透過資料再平衡和加權重新訓練,讓模型學習到更公平的判斷標準。
某醫院導入 GPT 模型輔助病患衛教說明,但未針對醫療場景設定輸出限制與專業用詞規範。最可能導致什麼後果?
醫療衛教內容對準確性與適切性要求極高。未設定輸出規範時,模型可能使用非專業用語、提供不適當的建議,甚至誤導病患對病情的認知,造成醫療安全風險。
某企業希望用 No Code 平台開發一套整合客服對話與內部知識查詢的智能客服系統。最可能遇到哪項技術性限制?
No Code 平台最核心的技術限制在於資料連接彈性不足。當需要串接企業內部自建 API 或動態擴充知識庫時,平台的封閉架構往往難以支撐,這是知識型客服系統最常遇到的瓶頸。
某品牌行銷團隊使用 Midjourney 生成廣告視覺圖像,但未事先設計標準化的 Prompt 模板。最可能出現什麼問題?
Midjourney 每次生成結果高度依賴 Prompt 的具體描述。若未建立標準化模板,不同人員生成的圖像風格將差異懸殊,難以維持品牌視覺的一致性和識別度。
一個開發團隊評估導入 GitHub Copilot 輔助程式碼與技術文件的撰寫。在工具選擇上,應主要依據哪一評估面向?
評估程式碼輔助工具的核心標準是語言框架的覆蓋率(如 Python、TypeScript)以及與開發者日常使用的 IDE(如 VS Code)的即時補全整合能力,這直接影響開發效率的實際提升幅度。
某企業在規劃生成式 AI 導入時,未確實評估 AI 工具是否能解決業務核心痛點,只憑技術趨勢做決策。最可能導致哪種後果?
業務目標適配度評估是 AI 導入成功的關鍵前提。若只追求技術先進性而未釐清工具是否能解決真實業務問題,部署後往往發現成效與預期差距甚大,造成資源浪費。
某企業在 AI 系統上線初期,未建立模型治理制度,也未制定資料存取權限規範。此舉最直接違反哪一項核心原則?
治理制度與資料存取規範是確保 AI 系統符合隱私法規(如個資法、GDPR)並能釐清責任歸屬的基礎。缺乏這些機制,直接違反負責任 AI 中最核心的隱私保護與問責性治理原則。
某公司在 PoC 設計階段未明確定義驗證指標(如準確率門檻、使用者滿意度標準),最常見的失敗結果為何?
PoC 階段缺乏清晰的驗證指標,意味著測試結束後無法客觀判斷方案是否成功。這使得向決策層報告結果時缺乏說服力,難以獲得推進正式部署所需的支持與預算。
某企業導入 RAG 技術強化 AI 回答準確性,但負責維護的團隊未對外部檢索資料源進行版本控管與存取權限設定。可能造成什麼問題?
RAG 的輸出品質完全依賴外部資料源的準確性。若資料源未進行版本控管,模型可能引用已廢止的法規或過時的政策;若未設權限控管,則可能引用不應公開的敏感或受版權保護的內容,產生法律風險。
某 Podcast 製作公司使用 MusicLM 生成節目背景音樂,但聽眾反映各集音樂風格前後不一致。建議採取哪種方式改善?
MusicLM 生成音樂風格不一致的問題,可透過提供一致風格的訓練樣本讓模型學習目標風格特徵,並在生成 Prompt 中明確約束風格範圍,減少每次生成的風格漂移現象。
某電信公司導入 Whisper 處理客戶申訴錄音的自動轉錄,但部分錄音內容涉及個人資料(如身分證號、帳號資訊)。下列哪種技術應列為優先設計?
處理含有個人敏感資訊的語音資料時,必須在轉錄完成後立即應用資料遮罩技術隱蔽敏感欄位,並採用差分隱私機制防止個資在訓練或查詢過程中被推斷或洩漏。
某政府機關導入 AI 系統處理公文,為強化系統的可審計性與合規性,下列哪一實作最為關鍵?
政府場域的 AI 應用需符合嚴格的稽核要求。建立完整的輸入輸出歷程記錄能讓每次決策都有據可查,搭配專法稽核檢查表則確保系統操作符合相關法規,兩者共同構成可審計性的基礎。
某企業使用生成式 AI 輔助客服回覆,但發現模型回應常出現重複說明同一概念,形成資訊迴圈。此問題最可能與哪個 Prompt 設計缺陷有關?
生成式 AI 出現重複說明與資訊迴圈,通常是因為 Prompt 未指定輸出結構(如段落數量、每段主題),導致模型在缺乏引導的情況下反覆生成相似內容,加入明確的結構化輸出規則可有效解決此問題。
某廣告公司使用 DALL·E 為多個品牌客戶設計視覺素材,但並未確認訓練資料的版權歸屬。最可能引發哪一問題?
生成式圖像模型若使用了受版權保護的作品作為訓練資料,在商業使用情境下可能面臨著作權侵權的法律主張。在為客戶提供商業設計服務時,需特別確認訓練資料的授權狀態。
在 AI 導入流程的各個階段中,哪個階段最需要配合資安與隱私保護團隊進行聯合評估與備查?
正式上線前的成效評估階段是最後一道防線,系統即將對外服務,此時需要資安團隊確認資料保護機制的完整性,隱私團隊則需驗證個資處理符合法規,並完成相關備查文件的提交。
某企業 HR 部門計畫導入 ChatGPT 自動草擬員工通知信、錄取通知等人資信件。下列哪項設計最應優先建置?
HR 信件需符合企業正式語氣且絕對避免使用歧視性或不當用語。建立用詞風格規範模板確保語氣一致,敏感字彙黑名單則防止模型輸出可能引發法律或勞資爭議的不當表達。
某企業的 AI 助理在回覆員工查詢時,反覆引用「公司已廢止三年前的彈性上班規定」,但實際上此規定從未存在。此屬於下列哪種風險類型?
生成式 AI 模型有時會「捏造」看似合理但實際上不存在的資訊,這種現象稱為幻覺(Hallucination)。這是大語言模型的已知固有風險,尤其在缺乏可查詢知識庫時更容易發生。
某財務團隊使用 No Code 工具自動化生成業績報表,但遇到季末需根據不同事業群動態調整欄位邏輯時,系統無法順利對應。其根本瓶頸為何?
No Code 工具適合處理固定流程,但當業務需要動態調整欄位邏輯、條件判斷時,其封閉的程式架構缺乏足夠的條件控制彈性,難以快速因應業務需求的變化。
某品牌設計團隊在評估 Midjourney 與 DALL·E 用於品牌視覺設計,若需要高度一致的風格控制並支援局部修改(如更換產品顏色),應傾向選擇哪種工具?
當品牌設計需要精細控制(如局部修改顏色、保持構圖一致)時,DALL·E 的 inpainting 功能(局部重繪)和較強的 Prompt 控制力優於 Midjourney,更適合需要精準品牌一致性的商業設計場景。
某開發團隊評估引入 AI 程式碼生成工具,需求為:必須支援公司主要使用的 React 與 Python 框架,且能在 VS Code 中即時提供補全建議。評估時應特別考量哪個面向?
程式碼補全工具的核心價值在於對特定語言和框架的深度理解,以及在 IDE 中提供準確即時建議的能力。模型對目標框架的微調程度直接決定建議的準確性,IDE 相容性則決定使用流暢度。
某企業採用 Claude 模型處理多輪客戶對話的摘要任務,但生成摘要常出現句子截斷與主題偏離。建議採取哪種改善方式?
多輪對話摘要出現主題飄移的問題,需透過 Prompt chaining 策略,將長對話分段處理並在每段 Prompt 中強調主題一致性的要求,確保摘要在整個對話脈絡中保持連貫。
某客服中心部署 Whisper 進行電話錄音的即時轉錄,但在嘈雜的辦公環境中,系統對靜音段落發生大量誤判,將背景雜音辨識為語音內容。其技術解法為何?
在高雜訊環境下,VAD(Voice Activity Detection,語音活動偵測)能準確判斷音訊中哪些段落包含真實語音,哪些是靜音或雜訊,搭配降噪前處理能顯著提升 Whisper 在嘈雜環境中的辨識準確率。
某醫院計畫部署 GPT 模型輔助醫師撰寫病歷摘要,同時需符合 HIPAA 等醫療法規要求。應優先確保哪項配置?
醫療 AI 的兩大核心合規要求是:(1)準確性——透過醫學本體知識庫(如 SNOMED CT)確保術語正確;(2)可追溯性——透過審計日誌記錄每次模型的輸入輸出,以備醫療糾紛或合規稽核。
某企業使用 ChatGPT 自動化生成新進員工教育訓練內容,但員工反映部分內容與公司現行內規不符。此問題最可能源自何處?
ChatGPT 的預訓練知識截止於特定日期,且不包含企業特定的內部規範。若未將最新版本的公司內規、員工手冊等文件納入知識庫,模型將依靠一般知識生成,導致與實際規範不符。
某法院評估在司法輔助系統中採用生成式 AI,必須符合嚴格的個資保護法規與可稽核性要求。下列哪一項屬於最基本且必要的合規配置?
司法場域對資料保護的要求最為嚴格。差分隱私能防止從模型輸出反推當事人身份,稽核日誌則記錄所有系統行為供事後檢查,兩者是在高度敏感場域部署 AI 的基本合規要件。
某企業在 AI 導入規劃的「需求盤點」階段,主要參考競業分析與市場趨勢報告,但未訪談內部各部門的實際作業痛點。可能造成什麼後果?
AI 導入成功的前提是精準識別業務痛點。若需求盤點只看外部市場趨勢,忽略內部使用者的實際需求,最終選用的工具雖然先進,卻可能完全無法解決真正的業務問題,導致投資報酬率低落。
某 AI 客服系統在測試環境中表現優秀,準確率達 95%,但正式上線後錯誤回應頻率明顯上升。最常見的技術管理疏失為何?
「訓練-部署分布差異(Distribution Shift)」是導致測試優秀但上線後效能下降的最常見原因。測試環境的資料往往較為整齊,而實際使用者輸入更多樣化,需透過轉移學習或以生產環境資料進行微調來解決此問題。
某法律科技公司採用 RAG 架構讓 AI 助理引用最新法規回答問題,但負責維護的工程師長達半年未更新法條資料庫。將導致什麼問題?
RAG 架構的輸出品質完全依賴外部知識庫的時效性。法規若有修正但資料庫未更新,AI 將引用舊法條回答,可能誤導律師或當事人做出基於過時法規的決策,產生重大法律風險。
某遊戲公司使用 Stable Diffusion 生成角色插畫,希望能精確控制角色的姿勢、武器握持方式與構圖位置。應搭配哪種技術?
Stable Diffusion 本身無法精確控制角色姿勢與空間關係,ControlNet 透過提供參考姿勢骨架圖(OpenPose)、深度圖或邊緣圖作為額外約束條件,讓生成結果嚴格遵循指定的構圖與姿勢設計。
某業務團隊需要每天快速產出多封客戶提案郵件,並可即時調整正式/親切的語氣風格。下列哪種生成工具最符合此需求?
商業郵件生成需要文字生成能力與語氣風格的靈活控制。ChatGPT 和 Claude 能透過 Prompt 指令(如「請用更正式的語氣改寫」)快速調整輸出風格,而 Copilot 專注程式碼、Midjourney 為圖像生成工具、Whisper 為語音辨識工具,均不適合此場景。
某企業的 AI 系統在生成報告時發生多次錯誤輸出,但因為沒有建立生成內容的版本記錄機制,無法追查錯誤是何時、在什麼輸入條件下發生的。此問題最直接違反哪項核心治理原則?
問責性要求能明確追溯每次 AI 決策或輸出的來源與條件,版本記錄是實現這項原則的基礎機制。缺乏記錄意味著當錯誤發生時,無法判斷責任歸屬,也無法分析根本原因並改進。
某企業的 AI 摘要工具在上線初期表現良好,但六個月後準確率逐漸下滑,摘要品質越來越差。最可能的原因為何?
Concept drift 指的是現實世界的資料分布或語言模式隨時間改變,而模型未跟上這些變化。若未定期以新資料重新微調,模型對最新術語、事件與業務模式的理解將逐漸落後,導致輸出品質劣化。
某部門使用 Low Code 工具整合線上表單與自動摘要功能,但發現當使用者提交表單後,系統無法即時觸發摘要生成流程,原因最可能為何?
Low Code 工具多數以同步、線性流程設計為主,缺乏事件驅動架構,因此無法處理「表單提交後非同步觸發摘要生成」這類需要即時事件回應的場景,這是此類平台的常見架構限制。
某跨國企業計畫導入 ChatGPT 處理中日韓三語的內部溝通文件,並要求中文輸出能精準使用台灣繁體用語、日文使用商務敬語。最佳的技術策略為何?
要滿足特定語言文化的精細需求(如繁體用語、商務敬語),通用多語模型往往不夠準確。需透過針對各語言文化情境的微調(fine-tuning),讓模型學習符合特定場景的語言表達習慣。
某消費品牌計畫使用 Midjourney 設計新品包裝草圖,並要求能精確控制 Logo 位置、主色調與包裝正面的文字區域。應如何選擇工具?
Midjourney 擅長生成富有藝術感的圖像,但對位置、顏色等精確設計元素的控制能力有限。Stable Diffusion 搭配 ControlNet 能提供邊緣圖、深度圖等精確控制,更適合需要嚴格規格的包裝設計。
某企業在 PoC 階段未設定「與業務 KPI 對應的 AI 生成品質評估標準」,例如未定義摘要正確率達到多少才算合格。最可能導致什麼後果?
若 PoC 階段缺乏與業務目標掛鉤的量化評估標準,測試結束後將無法客觀說明 AI 方案是否達標,決策者缺乏明確依據,難以批准後續的資源投入與正式部署。
某企業的 AI 系統在 PoC 階段使用內部整理好的標準資料集測試,通過率達 92%,但正式上線後因收到大量手寫掃描文件,錯誤率大幅上升。應如何解決?
測試資料(整齊的數位文件)與生產資料(手寫掃描件)之間存在顯著的分布差異。解決方法是先對手寫文件進行 OCR 前處理與格式正規化,再以這類資料對模型進行微調,提升對新資料類型的泛化能力。
某政府機關導入 ChatGPT 協助編寫政策說明文件,但未設計法律語境的輸出控制與人工審核機制。若生成內容出現錯誤,最可能違反哪兩項核心治理原則?
政策文件若包含錯誤且無法說明來源,違反可解釋性原則(無法解釋為何產生此結果);若出錯後無法追溯責任歸屬,則違反問責性原則。兩者在高度敏感的政府場景中都是必須嚴格遵守的治理要求。
某會計師事務所導入 Copilot 自動生成財務自動化程式碼,但發現輸出的計算邏輯與公司財報模板的欄位對應關係不一致。最合適的解決方法為何?
財務程式碼的生成需嚴格符合特定的財報格式與計算邏輯。透過以公司財務格式標準為語料進行模型微調,並在 Prompt 中明確指定財報模板的規格與欄位對應規則,可大幅提升程式碼的準確性。
某政府衛生主管機關評估在疫情追蹤系統中導入生成式 AI,必須符合個人資料保護法與政府資料使用準則。工具選擇時最關鍵的評估項目為何?
政府衛生資料屬於高度敏感個資,工具必須支援資料區隔(避免跨機關資料混用)、聯邦學習(在不共享原始資料的前提下協作訓練)或差分隱私(防止個人資訊被推算),才能符合個資法規要求。
某保險公司導入 Whisper 轉錄客戶電話申訴錄音,但系統無法正確區分客戶與客服人員的發言,造成重要責任歸屬段落的轉錄混亂。應導入何種技術輔助?
Speaker Diarization 技術能分析音訊中的聲學特徵,自動將不同說話者的發言分段標記(如「說話者 A:」、「說話者 B:」),讓多人對話的轉錄結果清晰區分每個人的發言內容。
某企業在評估資料可用性時,發現訓練資料集中有大量缺乏標註的樣本,且各分類的樣本數量極度不均衡。這最可能影響哪個層面?
訓練資料標註不足會使監督學習訊號不清晰,資料稀疏性和類別不平衡則導致模型對少數類別學習不足。這兩種問題都會直接降低模型的泛化能力,使實際部署後的生成結果不穩定。
某醫療機構導入生成式 AI 處理病患問診記錄,風險管理團隊評估到「敏感個資洩漏」風險最高。應優先導入哪些控制措施?
防範敏感個資洩漏需要多層次防護:限制上下文記憶範圍可防止跨對話的資料殘留;差分隱私在訓練階段加入噪音保護個別資料;資料遮罩在輸出前隱蔽識別性資訊,三者共同構成完整的隱私保護機制。
某 AI 輔助診斷系統在分析症狀描述時,生成了與醫學實證不符的疾病診斷建議,導致醫師誤判。此風險應歸類為哪種類型?
AI 生成不符合醫學實證的診斷建議,屬於幻覺(模型生成不存在或不正確的資訊)與推論偏差(模型基於錯誤的推理邏輯得出結論)的組合風險,在醫療場景中可能造成嚴重後果。
某製造商希望導入 GPT-4V,讓客服人員拍攝設備故障照片後,AI 自動識別問題並生成維修建議。下列哪項能力為必要條件?
此應用場景要求模型能「看懂」故障照片(圖像語意理解)並基於所見內容生成文字維修建議(多模態生成)。GPT-4V 的核心能力正是將視覺資訊與語言生成整合,這是此場景不可缺少的能力。
某科技公司導入 ChatGPT 自動生成職位招募說明,但未設計性別中立與種族包容性的用語檢查機制。此舉最可能違反哪項原則?
招募廣告若使用帶有性別偏見(如「需要強壯的男性」)或具有排除性的語言,可能觸犯就業歧視法規,違反 AI 公平性原則。AI 系統在生成涉及人員選拔的內容時,必須內建公平性檢查機制。
某企業導入 AI 系統輔助市場分析,但分析師反映 AI 的建議總是模稜兩可,無法給出明確的市場進入建議。可能需要調整哪些設定?
模型輸出過於模糊通常有三個原因:溫度過低使模型傾向保守中性回答;Prompt 缺乏明確的引導(如未指定「請給出具體的市場進入建議,包含時間點與預算範圍」);訓練語料不夠聚焦於目標領域。三者都需要調整。
某公司使用 No Code 平台自動化月報生成,但每次業務部門新增一個報表欄位,IT 就需要重新建構整個報表流程。這反映了哪一限制?
No Code 平台通常將流程邏輯與資料結構緊密綁定,缺乏模組化設計。當需求變更時(如新增欄位),無法只修改受影響的部分,往往需要重建整個流程,這是 No Code 工具在維護靈活性上的根本限制。
某室內設計公司計畫使用 AI 生成客戶空間設計方案,需要精確控制家具的相對位置、視角與整體構圖比例。下列哪種工具組合最為合適?
室內設計方案需要精確的空間配置控制,Stable Diffusion 配合 ControlNet 能透過深度圖或空間佈局圖作為約束條件,精確控制物件的位置關係與透視比例,符合設計精度要求。
某跨國零售商部署 ChatGPT 客服機器人服務東南亞市場,但客戶反映中文繁體回應常出現大陸用語,泰文回應也有語意誤解。最佳的調整策略為何?
跨文化客服問題需要文化層面的語言適配,不只是語言翻譯。透過以台灣繁體中文語料或泰文在地語料進行 fine-tuning,並設計包含文化情境的 Prompt,能讓模型輸出符合當地語言習慣的回應。
某法律事務所的 AI 助理在一次對話中提到了某客戶在上週提供的案件細節,但該客戶明明是第一次使用系統。這最可能是哪種技術問題?
此問題屬於「跨對話記憶洩漏」,原因是系統未在每次對話結束後正確清除上下文記憶(context window),導致前一位用戶的對話內容殘留在記憶中,在下一位用戶的對話中意外浮現,這是嚴重的隱私風險。
某縣市政府評估採購 AI 問答工具用於市民服務,評估委員會最關心「是否符合個人資料保護法的要求」。最需要關注哪項功能?
政府採購 AI 工具用於處理市民資料,必須確保資料隔離(防止跨機關存取)、傳輸加密(保護資料在傳輸過程中不被截取)、審計日誌(記錄所有資料存取行為),三者共同確保符合個資法規要求。
某新創公司為節省成本,選用了一款訓練資料來源不明的開源生成模型上線服務。最可能導致哪種後果?
訓練資料來源不明的模型可能使用了受版權保護的內容(著作權風險)或未經授權的個人資料(個資風險)進行訓練,商業部署後若遭版權所有者或資料主體提告,將面臨嚴重的法律責任。
某企業在 AI 導入規劃的資源配置階段,未評估 API 呼叫成本與每日推理計算量的峰值需求。部署上線後最常見的後果為何?
API 成本與計算負載評估不足是 AI 導入後最常見的運維問題之一。大語言模型的 API 費用與呼叫次數和 token 用量成正比,若未在規劃階段估算峰值需求,上線後的實際費用往往遠超預算。
某企業導入 Whisper 轉錄客服電話,但發現系統無法準確判斷憤怒客戶與冷靜客戶的語氣差異,影響後續情緒分析的準確性。可能的原因為何?
Whisper 主要針對語音轉文字準確性進行訓練,情緒辨識並非其預設功能。若需要情緒層面的分析,需要以包含情緒標注的資料集進行補充訓練,才能讓模型學習區分不同情緒狀態下的語音特徵。
某企業的 AI 系統即將進入「成效評估與正式上線」階段,專案負責人在最後的檢核清單上應強制確認哪項內容?
正式上線前的強制性檢核應聚焦於業務價值與使用者體驗:系統在真實場景下的準確率是否達到預定標準、使用者是否能順暢操作,以及問題發生時是否有完整的回饋與改善機制,這三點直接決定上線後的成敗。
某企業的 AI 合約審查系統在生成風險分析報告時,未標示每項風險判斷的依據段落與原始合約條款。此舉違反哪項核心治理原則?
合約審查屬於高風險決策場景,律師或法務人員需要能驗證 AI 判斷的依據。若報告未引用原始條款,使用者無法驗證結論是否正確,違反可追溯性(能追溯到原始依據)與可解釋性(能說明為何得出此結論)原則。
某政策研究機構使用 Claude 模型生成跨黨派政策分析報告,但多名研究員反映報告中的論述明顯偏向特定政治立場。首要風險應歸類為何?
AI 模型的政治偏見通常源自訓練資料本身的偏差(如訓練語料中某一政治立場的內容過多)。這是一個公平性問題,需要對訓練資料進行偏見審查,並採取去偏見技術進行修正,確保輸出的平衡性。
某消費金融公司的 AI 核貸系統拒絕了一名客戶的申請,但客戶提出申訴後,客服人員無法查詢到 AI 決策的輸入條件與判斷過程。此問題代表哪一治理失誤?
AI 輔助決策系統(尤其是金融核貸)必須保留完整的輸入記錄與決策依據,以供申訴調查使用。缺乏此機制意味著當 AI 做出錯誤決定時,客戶無法獲得解釋,企業也無法釐清責任,嚴重違反問責性治理原則。
某開發團隊導入 AI 程式碼生成工具協助撰寫業務系統,發現工具生成的程式碼語法正確,但與實際業務流程的處理邏輯不符,若直接使用將導致系統錯誤。最可能的問題為何?
AI 程式碼生成工具在沒有業務背景知識的情況下,只能依賴通用程式設計模式生成語法正確的程式碼。但業務邏輯(如特定的商業規則、計算公式)需要透過 Prompt 明確描述,或以業務語料微調,才能生成真正符合需求的程式碼。
某企業的公關部門使用 ChatGPT 協助撰寫對外新聞稿與內部公告,但未設定統一的輸出格式與用語規範。最可能出現什麼後果?
未設定輸出規範時,ChatGPT 會根據每次的 Prompt 風格產生不同的輸出,造成企業對外溝通的一致性問題。這不僅影響專業形象,在敏感議題的公告中也可能因用詞差異而造成資訊混淆。
某企業在 AI 導入風險評估中,發現模型的推理成本極高,每月雲端費用超出 IT 預算三倍。對應的技術調整策略應為何?
降低 AI 推理成本的標準技術路徑是:模型壓縮(減少模型大小)、量化(將浮點數轉為低精度整數降低計算量)、推理優化(如批次推理、快取機制),三者能在不大幅犧牲效能的前提下顯著降低運算資源需求。
某鄉鎮公所導入 No Code AI 問答平台回答民眾詢問,資安人員評估後發現最大的資安風險來源為何?
No Code 平台的黑箱架構使得資訊流向難以掌控,資料管理員無法細緻設定哪些資料可被查詢、哪些不行。對政府單位而言,這種不透明性可能導致民眾個資或機密行政資料在未察覺的情況下外洩。
某博物館計畫整合 Whisper 與 GPT-4V,讓導覽 APP 能辨識訪客對著展品說的問題,再根據展品圖像生成解說。兩模型整合時最核心的技術挑戰為何?
整合兩個模型時,最關鍵的技術問題是確保「使用者問的問題(語音→文字)」與「GPT-4V 分析的圖像」能正確對應。若訪客詢問左側展品,但系統分析右側圖像,語音與圖像的語意不對齊將導致回答驢唇不對馬嘴。
某管理顧問公司希望用 AI 工具統一生成所有客戶的季度業績報告摘要,要求語氣一致、措辭專業。下列哪個做法最能達成這個目標?
確保跨客戶、跨時間點的報告風格一致,需要雙重保障:一是設計包含明確風格指令(「請使用正式商務語氣,避免使用縮寫」)的 Prompt 框架;二是以高品質範例進行微調,讓模型學習目標風格的語言模式。
某插畫工作室使用 Midjourney 為不同客戶生成插畫,但客戶反映每次的插畫風格差異太大,無法辨認是同一藝術家的作品。最可能的原因為何?
Midjourney 的生成結果高度依賴 Prompt 中的風格描述詞。若每次生成時未固定使用相同的風格控制詞(如特定藝術家風格、色彩方向),每次輸出將呈現截然不同的視覺風格,難以形成一致的品牌識別。
某企業未進行充分的工具與模型選擇評估,直接採購了一款熱門但不適合其業務場景的 AI 工具。部署後最可能出現哪類問題?
工具選擇是 AI 導入成功的關鍵決策。若工具不適配業務需求(如用圖像生成工具做文字分析),不僅效能遠低於預期,還可能因工具設計不符合業務場景的安全需求而引入額外的資安漏洞。
某企業 HR 部門導入 ChatGPT 協助草擬員工溝通信件,但多名員工反映部分信件用語過於隨意,甚至出現不符公司文化的表達。最需要改善哪一策略?
HR 信件用語代表企業形象與文化,需要嚴格的語氣控制。透過建立風格模板(定義正式度、禮貌用語要求)並在 Prompt 中加入明確引導語(如「請使用尊重且專業的語氣」),可確保輸出符合企業溝通標準。
某企業的 AI 系統在回答產品問題時,生成了公司尚未推出的功能說明。除幻覺問題外,還應評估哪個技術層面的問題?
除了幻覺(模型生成不存在的資訊)之外,還需排查知識庫的即時性問題:若 RAG 資料庫未與最新的產品功能清單同步,模型可能參照舊版或未來版本的資料生成回答;模型記憶未清除也可能導致殘留舊資訊。
某保險公司使用 Whisper 分析理賠電話錄音,但在雙方爭議激烈的通話中,系統常將客戶與客服人員的發言混淆,無法準確記錄誰說了什麼。其關鍵缺失為何?
在多人對話的轉錄場景中,語者分離(Speaker Diarization)技術透過分析聲學特徵區分不同說話者,並為每段發言標記說話者身份,是確保保險理賠記錄中責任歸屬正確的關鍵技術。
某汽車製造商使用 Diffusion 模型生成新款車型的 3D 視覺效果圖,但每次生成一張高解析度圖像的雲端成本過高。應採取哪種優化策略?
Diffusion 模型的高計算成本可從多個方向優化:模型量化降低每次推理的計算精度要求;分階段推理先生成低解析度版本審核後再細化;彈性雲端調度在離峰時段以較低費率批次生成,三者結合能有效控制成本。
某電商平台為視障用戶提供 AI 語音商品介紹服務,但用戶反映語音聽起來像機器在唸稿,缺乏自然的語調起伏與情感。建議採用何種改進方案?
TTS 語音的自然度主要由 Prosody(韻律)控制,包括語速、音調高低、停頓位置和語氣強調;語者嵌入則賦予語音特定的人聲特徵。兩者結合能讓商品介紹語音聽起來更像真人在說話,提升用戶體驗。
在企業導入 ChatGPT 的實務案例中,「使用者權益保障」的機制最常以哪種方式具體落實?
使用者權益保障的核心在於確保人們在受到 AI 決策影響時有途徑了解原因並提出異議。具體實作包括:申訴管道(讓使用者反映問題)、人工審查(提供人類複審選項)、結果說明框架(解釋 AI 為何做出此決策)。
某建築事務所希望使用 AI 工具自動生成建築平面配置圖的草稿,包含精確的房間比例與牆面位置。下列哪種生成工具最不適合此需求?
Midjourney 以藝術性和美感為設計核心,缺乏對精確幾何關係的控制能力,無法生成符合建築規格的精確比例平面圖。DALL·E、GPT-4V(SVG)或 Stable Diffusion(ControlNet)都提供更強的結構控制能力。
某法律 AI 平台在生成勞動合約摘要時,將已廢止的《勞動基準法》舊版條文引用為現行法規。建議的改善策略為何?
解決法規引用錯誤需要建立即時更新的法規資料庫,並透過 RAG 讓模型每次生成時必須從資料庫中檢索最新版本法條,而非依靠訓練時記憶的可能已過時的法律知識,這樣才能確保引用的正確性與時效性。
某影音平台計畫開發 AI 自動生成影片解說字幕的功能,需要同時處理視覺畫面與語音內容。評估工具組合時最關鍵的技術條件為何?
影片解說字幕需要將視覺內容(畫面)與聽覺內容(語音)精準對應並生成文字描述。三種模態的語意嵌入必須在同一語意空間中對齊,才能確保字幕的內容與畫面及語音的時間點和語意都正確對應。
某教育機構使用 GPT 模型生成線上課程的教學影片腳本,但生成結果內容冗長、重複核心概念三次,且中途偏離主題介紹不相關的內容。最應優化哪一部分?
腳本內容冗長重複且偏離主題,是 Prompt 設計問題的典型症狀:未指定段落結構(導致重複)、未限制每段的關鍵字範圍(導致偏題)、上下文視窗管理不當(導致模型失去對整體主題的掌握)。
某企業使用 No Code 平台整合多個部門的業務流程自動化,但未建立資料流轉的版本控制與回滾機制。最可能導致什麼後果?
版本控制與回滾機制是企業資訊系統的基本安全網。在 No Code 平台的多部門流程自動化場景中,若缺乏此機制,當自動化流程輸出錯誤資料時,將無法判斷問題在哪個環節發生,也無法恢復到錯誤發生前的正確狀態。
某上市公司計畫導入 AI 自動生成季度財務報告,法務與合規部門要求工具必須符合金融監理規範。選擇工具時最重要的考量為何?
金融監理對資訊安全的要求極高。財務報告工具必須具備差分隱私(保護財務資料的隱私性)、資料加密(保護傳輸安全)與審計記錄(記錄每次報告生成的操作歷程供稽核)三項核心合規功能。
某電商平台導入 AI 客服系統,希望能準確回答客戶關於商品規格、退換貨政策等問題,並確保答案與最新政策一致。應選擇哪類模型與設計?
電商客服問答需要精確引用最新的商品規格與政策資訊。GPT 模型搭配抽取式問答模組能從更新的知識庫中精確抽取相關資訊,而非依靠訓練時的記憶,確保答案的準確性與即時性。
某工業設計公司使用 AI 生成新產品的外觀設計草圖,但生成圖像的外觀風格與設計師的草稿相差甚遠,無法作為參考。應改善哪一方面?
圖像生成結果與預期相差太遠,通常是 Prompt 中的視覺描述不夠精確或具體,或缺乏對結構、比例、材質等關鍵視覺元素的描述。強化 Prompt 的視覺引導詞(如材質、角度、光線)能顯著提升圖像與設計意圖的吻合度。
某零售商導入 GPT-4V 多模態模型,讓客服人員上傳客戶反映的商品損壞照片,AI 自動判斷損壞類型並生成處理建議。若系統未能有效整合圖像語境與文字語境,最可能發生什麼問題?
多模態模型若圖像語境與文字語境整合不良,會出現「答非所問」的情況——圖像顯示的是左側螢幕損壞,但文字建議卻是針對電池更換,這種語境錯位會讓客服建議完全失去參考價值。
某企業的 AI 輔助決策系統在提供採購建議時,無法說明「為何推薦這家供應商而非其他家」。此問題違反了哪項 AI 治理原則?
問責性原則要求 AI 系統的決策必須能被解釋和追溯,讓使用者了解決策的依據。若系統無法說明推薦原因,採購人員無法驗證建議是否合理,也無法在出現問題時追究責任,違反問責性要求。
某零售商的 AI 銷售預測模型在部署一年後準確率大幅下滑,分析師懷疑是消費行為在疫情後發生根本性改變。若當初未設計此類應對機制,最可能面臨什麼問題?
當市場環境發生根本性變化(如消費行為改變)時,原有訓練資料的統計規律不再適用,這正是 Concept Drift 現象。若未設計模型監控與定期再訓練機制,模型將持續基於過時的模式做出不準確的預測。
某企業在 AI 導入規劃的初期未明確定義需求盤點清單與量化的關鍵效能指標(KPI),最可能造成什麼後果?
需求盤點不清晰意味著不知道要解決什麼問題;KPI 不明確意味著不知道成功的標準是什麼。這兩者的缺失使得後續的模型評估淪為主觀判斷,無法形成客觀的優化方向。
某上市公司的 AI 輔助財報生成系統產出的財務預測數據無法標示其計算來源,稽核人員無法驗證數字的合理性。違反下列哪一 AI 治理原則?
財務數據必須能追溯其計算來源與方法,才能通過稽核。若 AI 系統無法說明數字如何得出,違反可解釋性原則——這要求系統能提供清晰的決策推理過程和資料依據,讓人類能夠驗證其正確性。
某律師事務所導入 AI 自動草擬租賃合約,但系統生成的條款與當前《民法》物權編的修正內容不符,引用了已廢止的舊條款。如何從根本上改善?
法律文件必須引用現行有效的法條。解決此問題的根本方法是建立即時更新的法規資料庫並整合 RAG,讓模型在生成合約時必須從資料庫中檢索並引用,而非依靠訓練時可能已過時的法律知識。
某銀行的 AI 投資建議系統被發現在市場波動期間持續生成高風險投資建議,可能使客戶蒙受重大損失。應優先採取哪項風險控制措施?
金融 AI 系統生成不當的高風險建議是嚴重的產品安全問題。透過強化學習加入風險懲罰(對高風險建議給予負向回饋)和系統性安全測試(包括壓力測試和對抗測試),能讓模型學習在不同市場條件下識別並避免過度風險建議。
某企業導入 GPT 模型建立自動化客戶問答系統,但在規劃階段未設計任何關於客戶資料的保護機制。若客戶輸入的問題包含個人資訊,最可能違反哪一治理原則?
客戶在問答過程中提供的個人資訊(如姓名、帳號、健康狀況)若未受到妥善保護,將面臨洩漏風險,直接違反隱私保護原則。此原則要求系統在設計階段就需將個資保護納入(Privacy by Design),而非事後補救。
某投資機構使用 ChatGPT 輔助分析師撰寫財務研究報告並提供決策建議,最應注意哪一項風險管理措施?
財務決策輔助最大的風險是「過度相信 AI 輸出」。模型的訓練資料可能包含歷史偏誤,預測也存在不確定性。必須建立機制讓分析師了解 AI 建議的信心水準和可能的偏差來源,避免將 AI 輸出直接作為投資決策依據。
某企業在 PoC 階段測試 AI 輔助採購系統,但業務人員反映 AI 建議過於簡單,只給出「建議採購」或「不建議採購」的二元判斷,無法涵蓋供應商評估的實際複雜度。應如何調整?
AI 輸出過於簡單通常反映輸入資訊不足或任務描述不夠具體。透過在 Prompt 中明確指定評估維度(如價格、品質、交期、財務穩定性)並設計多輪對話逐步深化,能讓 AI 提供更符合業務需求的多維度分析。
某醫療 AI 新創公司在台灣推出 AI 輔助診斷服務,但未針對台灣的醫療器材管理法規與個資保護法進行合規評估即上線。最可能面臨哪種風險?
醫療 AI 屬於高度管制行業,在台灣須符合衛福部的醫療器材法規及個資法。未完成合規評估即上線,一旦被主管機關發現將面臨嚴重法律後果,包括罰款、強制下架,以及媒體曝光造成的品牌形象損害。
某客服中心部署 AI 語音機器人,希望在安撫憤怒客戶時能輸出帶有同理心語氣的語音。但測試發現語音情緒風格完全無法調整,始終是單調的標準語氣。最可能是哪種技術問題?
現代 TTS 系統支援情緒表達,但需要明確啟用情感標記功能(指定目標情緒,如同理、關切)並調整韻律參數(如降低語速、提高語調柔和度)。若這些功能未開啟,系統將始終使用預設的中性標準語氣輸出。
某航空公司導入 Whisper 模型轉錄機場廣播與地勤通話,但系統在多人同時說話的情境下準確率明顯偏低。為提升辨識準確性,應優先調整哪方面?
提升特定場域的語音辨識準確率有兩個主要方向:領域語料補充(增加航空術語的訓練資料)和語者分離(處理多人同時說話的情境)。兩者結合能顯著改善航空通訊複雜環境下的辨識效果。
某電信業者的 AI 客服機器人在回答資費方案問題時,常給出「依您的需求而定」等模糊回應,無法提供具體的方案比較。最可能的原因為何?
客服機器人給出模糊回應,通常是模型未以電信業具體資費方案資料進行微調,只能依賴一般性知識給出模稜兩可的回答。以真實方案資料進行微調,並設計要求具體比較的 Prompt,能顯著改善回應的實用性。
某市場調查公司計畫使用 AI 分析競業情報,系統需要存取多個外部資料源與部分客戶的商業機密資料。若未正確設置資料存取權限與隱私管理機制,最可能導致什麼後果?
在處理多來源資料時,若未設計資料隔離與存取控制,可能發生不同客戶的機密資料被 AI 系統交叉參照的情況,造成商業機密外洩。這種情況在市場調查公司中屬於嚴重的職業倫理與法律違規問題。
某法律科技公司的 AI 法規遵循工具在生成合規報告時,未對引用的法規條文進行來源核查與版本確認。最可能造成什麼後果?
法規遵循報告若引用錯誤或過期的法條,客戶按照報告執行後可能發現根本不符合現行法規,不僅浪費資源,還可能面臨監管機關的處罰。法規資料的來源核查與版本確認是此類應用的最低品質要求。
某數位醫療新創公司在開發 AI 健康諮詢 APP 時,未設計任何個人健康資料的隱私保護機制。最直接的法律風險為何?
健康資料在《個人資料保護法》中屬於「特種個人資料」,受到最嚴格的保護規範。未設計隱私保護機制的健康 APP 若發生資料外洩,將面臨高額罰款與民事訴訟,情節嚴重者相關人員還可能承擔刑事責任。
某時裝品牌使用 Stable Diffusion 生成季度新品的視覺廣告素材,但行銷總監發現各波次廣告的圖像風格差異極大,無法形成品牌視覺識別。最可能的後果是什麼?
品牌視覺識別建立在一致的視覺語言上。若 Stable Diffusion 每次生成時未加入固定的風格控制詞(如特定色彩、構圖風格、品牌元素),各波次廣告將呈現截然不同的視覺風格,消費者無法建立品牌記憶。
某大型企業計畫使用生成式 AI 自動化製作員工技能培訓教材,要求所有教材的語氣一致、內容結構規範且符合公司培訓標準。最關鍵的設計策略應為何?
企業培訓教材需要高度的一致性與規範性。關鍵在於兩點:訓練語料的品質(以高品質的範例教材訓練,讓模型學習正確的語氣與結構);以及結構化 Prompt(明確指定章節格式、內容要求和品質標準)。
某娛樂公司開發 AI 創作輔助工具,希望系統能同時根據視覺分鏡板(圖像)與背景音樂(語音)生成對應的劇情描述文字。若系統無法有效協同處理視覺與語音資訊,問題最可能出現在哪個環節?
多模態協同生成需要模型理解不同模態之間的語意對應關係,這種理解能力來自訓練資料中大量的語音–圖像配對樣本。若此類配對資料不足,模型將無法學習如何將視覺信息與聽覺信息整合並協同生成文字。
某零售商的 AI 客服自動回覆系統在設計時未定義任何合規性標準,既未考慮個資保護也未設計資料加密機制。可能違反哪項規範?
客服系統在與客戶互動過程中必然接觸個人資料。未設計資料保護機制(如加密、存取控制、資料最小化原則),將直接違反個人資料保護法及企業在資訊安全上的合規義務。
某企業選用一款 AI 語音模型來處理員工的語音會議錄音轉錄,但在工具採購評估時完全忽略了資料加密與隱私保護需求。最可能導致哪類風險?
會議錄音可能包含商業機密、人事討論、財務數據等高度敏感資訊。若語音處理工具未提供傳輸加密與儲存隱私保護,這些資訊在處理過程中可能遭到截取或被雲端服務商存取,引發嚴重的商業機密洩漏與個資法違規問題。
某快速消費品公司計畫用生成式 AI 大量生成社群媒體行銷文案,但未將目標受眾特徵(如年齡、興趣、消費習慣)與產品差異化賣點納入模型訓練或 Prompt 設計中。將面臨什麼問題?
有效的行銷文案需要精確定位目標受眾與凸顯產品差異化。若 AI 系統缺乏這些業務背景資訊,只能生成通用的泛泛描述,無法觸動特定受眾的購買動機,行銷效果將大打折扣。
某金融科技公司的 AI 系統在市場環境快速變化時(如利率政策驟變、突發事件),無法及時調整分析框架,持續輸出基於舊環境假設的建議。最需要強化哪一方面?
應對快速變化的環境需要模型架構具備良好的彈性,支援快速的再訓練、模組替換或外部知識庫更新。若架構僵化,每次環境變化都需要大規模重新開發,無法滿足金融市場對即時性的要求。
某社群媒體平台的 AI 內容推薦系統在生成個人化推薦說明時,不斷輸出與該用戶相關的敏感個人行為數據(如就醫記錄、宗教傾向)。應優先實施何種控制措施?
AI 系統輸出敏感個資是嚴重的隱私違規問題。需透過去識別化技術(移除可識別個人的特徵)和差分隱私(在資料分析時加入保護性噪音)雙重機制,確保系統輸出不包含可追溯至特定個人的敏感資訊。
某公司的 AI 法律顧問工具在生成勞資爭議分析報告時,未將每項法律判斷連結到對應的法條來源,無法讓使用者驗證分析依據。此違反哪項 AI 治理原則?
法律分析報告若無法標示每項結論的法條來源,使用者無法判斷分析是否準確,律師也無法據此向法院舉證。缺乏來源連結違反可解釋性原則——要求 AI 輸出能被理解、被驗證,並能追溯推理依據。
某電商平台使用生成式 AI 自動撰寫商品描述,但業務團隊反映大量商品描述讀起來像是通用模板,未能凸顯各商品的獨特特色與差異化賣點。最常見的原因為何?
商品描述同質化的問題,根源在於模型缺乏對不同商品類別特性的深度理解。若未以各類商品的規格資料、賣點描述進行業務導向微調,模型只能生成適用於「所有商品」的通用描述,無法體現差異化價值。
某企業的 AI 自動化流程在回應客戶查詢時,答案過於簡短且無法解釋背後的業務邏輯,讓客戶感覺答非所問。應加強哪一部分的設計?
回應過於簡短且缺乏邏輯說明,是 Prompt 設計不夠精確的典型問題。透過在 Prompt 中明確要求「請提供詳細的分析並說明理由」、指定輸出結構(如問題→原因→解決方案),能顯著提升回應的深度與實用性。
某線上購物平台的 AI 客服在回答商品諮詢時,偶爾會給出與實際商品規格不符的資訊(如報出錯誤的商品重量或保固期限),導致客戶投訴。應如何從根本上改善?
AI 客服給出不正確的商品資訊,根本原因是訓練資料中包含錯誤或過時的商品規格。解決方法是建立資料品質管控機制確保訓練資料準確,並加入自動錯誤偵測系統,在識別到可能的偏誤時觸發人工驗證。
某律師事務所導入 AI 輔助生成法律摘要,但系統未設計輸出合理性檢查機制,導致部分摘要包含不合邏輯的法律推論但未被攔截。此最可能違反哪項治理原則?
法律摘要包含不合邏輯的推論而未被檢查,意味著系統無法自我驗證輸出的合理性,使用者也無從判斷結論是否正確。缺乏合理性檢查機制違反可解釋性原則——AI 輸出應能被理解、被驗證,且應具備基本的邏輯一致性。
某藝術品授權平台希望使用 Stable Diffusion 為藝術家生成衍生創作素材,並要求所有生成作品必須保持一致的藝術家個人風格。應如何優化?
維持特定藝術家的一致風格,關鍵在於 Prompt 中精確描述該藝術家的標誌性風格元素(如特定的用色、筆觸、構圖習慣),並在每次生成時使用相同的風格控制詞,同時限制 Stable Diffusion 在此風格範疇內進行生成。
某企業的 AI 輔助人事決策系統(包含招募篩選與績效評估)在部署時未設置決策追蹤機制與責任歸屬記錄。當員工對系統決定提出異議時,將最可能面臨哪種風險?
人事決策的 AI 系統必須保留完整的決策記錄,因為員工有權了解影響其工作的決定是如何做出的。缺乏追蹤機制使企業在勞資爭議中處於無法自證的不利地位,同時也可能違反就業平等相關法規的透明度要求。
某廣告科技公司開發多模態 AI 創意工具,讓廣告設計師描述廣告概念(語音),系統自動生成對應的視覺廣告圖像。但測試發現語音描述的概念與生成圖像的視覺表現常常不符。這通常是由於何種原因?
語音到圖像的生成管線需要兩個模態的語意表示在同一向量空間中精確對齊。若語音描述中的抽象概念(如「現代感、活力」)無法被正確轉換為圖像生成模型能理解的視覺語意,就會出現語音說的是一回事,圖像生成的是另一回事的問題。
某製造業企業導入 AI 進行供應鏈趨勢預測,但系統無法有效識別半導體短缺這類特定行業動態,預測結果與實際市場走勢差距甚大。最有可能的原因為何?
通用 AI 模型缺乏對特定行業動態(如半導體供應鏈的複雜性)的深度理解。需要以供應鏈專業資料(如產業報告、歷史短缺事件)進行領域微調,讓模型學習到製造業特有的趨勢模式與風險因子。
某企業在進行生成式 AI 系統的導入規劃時,完全未評估模型的長期維護成本、定期重新訓練費用與 API 使用量的年度增長。最常見的後果為何?
AI 系統的總擁有成本(TCO)遠超出初期部署費用,包括持續的 API 費用(隨使用量增長)、定期重新訓練成本、維運人員費用等。若規劃階段未納入這些長期成本,實際運營後的財務壓力往往遠超預算。
某企業在評估多家 AI 平台廠商後,選擇了功能最強但完全無法提供資料隱私保護文件與合規稽核機制的工具。最可能面臨什麼風險?
AI 工具若無法提供資料隱私保護說明(如資料處理協議 DPA)與合規稽核記錄,企業在使用過程中可能在不知情的狀況下違反個資法或 GDPR,面臨監管機關的調查與高額罰款,功能再強大也無法彌補合規風險。
某人力資源平台使用生成式 AI 自動回覆求職者的應徵詢問,但未建立對 AI 輸出中偏見與歧視用語的識別與過濾機制。可能導致什麼後果?
AI 系統若未過濾偏見性語言,在回覆求職者時可能輸出帶有性別、年齡、種族或身心障礙歧視意涵的語句,不僅違反《就業服務法》等反歧視法規,也可能引發輿論危機,對企業品牌造成嚴重損害。
某製藥公司導入 AI 協助研究人員摘要藥物臨床試驗報告,但系統無法正確理解「非劣效性試驗」、「主要終點指標」等統計學專業術語,導致摘要內容嚴重失準。應如何解決?
解決專業術語理解不足的問題需要雙管齊下:以大量臨床試驗文獻進行微調,讓模型學習專業術語的正確用法與含義;同時設計包含術語說明的語境 Prompt,在每次摘要任務前提供重要術語的定義,確保生成結果的專業準確性。
某企業使用生成式 AI 管理內部技術文件,但在系統上線後從未進行模型的再訓練或更新,兩年後發現系統對新技術架構與新產品功能的理解完全失準。最可能的根本原因為何?
AI 模型不會自動學習新知識,若缺乏定期以最新資料進行微調的機制,模型對超出原始訓練範圍的新技術、新產品將逐漸失去理解能力。這是企業 AI 系統維護中「模型漂移」問題的典型案例。
某跨國服務公司在全球多個市場部署同一套 AI 客服系統,但未針對不同市場的語言習慣與文化背景進行本地化調整。最可能出現什麼後果?
語言本地化不只是翻譯問題,還涉及文化脈絡、禮儀習慣、表達方式等。同樣的內容在台灣和日本的表達方式可能截然不同;未進行文化適配的系統在不同市場可能顯得不禮貌、奇怪,甚至引發誤解,直接影響客戶體驗。
某線上教育平台導入 AI 自動批改學生的學術報告,但系統未針對學術寫作的格式規範(如 APA 引用格式、論證結構要求)進行特別處理。最可能面臨哪類問題?
學術寫作評估有嚴格的特定規範(引用格式、論證邏輯、學術誠信等),這些知識與一般語言理解能力不同,需要以學術評審標準和範例進行專業訓練。未做此處理的 AI 系統無法準確識別學術層面的問題,批改品質將難以達到教學要求。
一家智慧零售公司正在評估導入 AI 系統,工程師描述系統需能「感知貨架狀態、理解庫存語意、推論補貨時機、決策補貨量、並自動下單」。請問這段描述最貼近哪一種 AI 運作模型?
AI 系統的完整運作流程涵蓋感知(輸入資料)、理解(語意解析)、推理(邏輯判斷)、決策(選擇方案)、行動(執行輸出)五大環節,貼近人類智能的完整循環。
某家醫院正在評估一款 AI 系統:它只能依據當下病患輸入資料做出回應,但可以記錄最近 30 分鐘的生命徵象歷史以調整建議。請問這屬於哪種 AI 智能分類?
有限記憶型 AI 能利用近期歷史資料優化決策,例如記錄過去數據調整輸出,是目前最常見的實用 AI 類型,如自駕車、推薦系統等皆屬此類。
產品設計師正在選擇 AI 模型架構來產生新款產品外觀圖。她比較了 GAN、VAE、Diffusion Model 和 SVM,最終排除了一個不屬於生成式 AI 的選項。請問她排除的是哪一個?
SVM(支援向量機)是鑑別式模型,用於分類與迴歸任務,本身不具備生成新資料的能力。GAN、VAE 與 Diffusion Model 皆屬生成式 AI 技術。
某銀行在申請核貸 AI 系統中發現,對於女性申請者的核准率明顯低於男性,且這個差距無法用信用評分解釋。請問該系統違反了 Responsible AI 六大原則中的哪一項?
公平性原則要求 AI 系統不得因性別、種族等特徵對特定群體產生歧視性結果。若模型輸出因資料偏誤而對特定群體不公,即違反公平性原則。
技術主管向業務團隊解釋為何選用 Transformer 架構作為新款對話助理的基礎。他提到了兩大優點,請問下列哪一項最能代表 Transformer 的核心優勢?
Transformer 的核心優勢在於 Self-Attention 機制能並行處理序列資料,並有效捕捉長距離語意依賴關係,是 GPT、BERT 等模型的基礎架構。
電商平台將數百萬筆消費者購買記錄交給 AI 系統,未提供任何標籤,系統自動將消費者分成五個族群以利精準行銷。請問這套系統採用的是哪種學習類型?
非監督式學習不依賴標籤資料,透過發現資料內部結構進行分群(如 K-means),是消費者分析、異常偵測等應用的常見方法。
某律師事務所使用 AI 工具查閱法規,結果模型提供了一個看起來格式正確、邏輯清晰的引用條文,但該條文根本不存在於任何法律資料庫中。這屬於哪種 AI 風險?
AI 幻覺(Hallucination)是生成式模型常見問題,模型輸出看似合理但實為虛構或錯誤的資訊,在法律、醫療等高風險場域尤為危險。
客服中心正評估一套能將客戶電話即時轉成文字記錄的系統,以便後續分析與存檔。請問這項核心功能最主要依賴哪一種 AI 技術?
自動語音辨識(ASR)是將語音訊號轉換為文字的核心技術,代表性系統如 Whisper、DeepSpeech,廣泛應用於客服、字幕生成與語音助理等場景。
某歐洲新創公司計畫推出一款 AI 系統,協助法院判斷假釋申請是否批准。在評估是否需遵循歐盟《AI 法案》嚴格規範時,合規顧問判定這屬於「高風險」應用。請問以下哪個比較選項中,只有一個屬於高風險?
歐盟《AI 法案》將影響人身安全與基本權利的系統列為高風險,包括自駕車、醫療診斷、司法輔助決策等。一般娛樂推薦類應用風險等級較低。
AI 治理委員會正在審查公司採用的風險管理框架是否符合 NIST AI RMF。某成員列出了四個功能選項,其中一個不屬於該框架。請問哪一個不在 NIST AI RMF 的四大核心功能中?
NIST AI 風險管理框架的四大核心功能為 Govern、Map、Measure、Manage,並不包含「Create」。該框架強調系統性地識別、評估與管理 AI 風險。
無人機導航系統需同時整合攝影機、雷達、GPS 與聲納等多種感測器的資料,才能在複雜環境中安全飛行。請問這種整合多來源環境資料的技術稱為什麼?
感測器融合(Sensor Fusion)是整合來自不同感測器的異質資料,以建立更完整環境感知的技術,廣泛用於自駕車、機器人與無人機導航等場景。
某智慧醫療平台希望建立一套系統,能將疾病、藥物、症狀之間的語意關係以圖形方式結構化表達,以供臨床推理使用。請問最符合此需求的認知表徵技術為何?
知識圖譜以節點與關係建構語意網絡,能表達概念間的結構關係,是認知與表徵系統中常用的知識轉化技術,適合醫療推理、問答系統等應用。
市場研究公司收集了十萬名消費者的購物記錄,但完全沒有人工標記。他們希望 AI 系統自動找出不同年齡層的消費行為模式。請問最適合的學習方法為何?
分群(Clustering)是非監督式學習的典型應用,在無標籤資料中自動發現資料結構與模式,常用演算法包括 K-means 與層次式分群。
新聞摘要系統需從文章中自動找出提到的公司名稱、國家與人物,以便建立索引。請問這項功能最主要依賴哪種 NLP 技術?
命名實體識別(NER)專門從非結構化文本中識別人名、地點、組織等具語意的專有名詞,是資訊擷取與知識圖譜建構的基礎技術。
健身應用程式希望透過手機攝影機即時偵測使用者的深蹲姿勢是否標準,需要識別膝蓋、臀部、肩膀等關鍵點的位置。請問最適合的電腦視覺模型為何?
OpenPose 是專為人體姿勢估計設計的電腦視覺模型,能偵測並追蹤身體關鍵點(如關節位置),廣泛應用於健身指導、動作分析與醫療復健等場域。
廣告公司想要用 AI 為客戶批量生成高品質、風格一致的產品宣傳圖片。工程師評估後建議採用目前在圖像生成品質與穩定度最佳的技術。請問是哪種?
Diffusion Model 在近年圖像生成品質與多樣性上全面超越 GAN,Stable Diffusion 即為代表性應用,能產生高解析度且細節豐富的圖像。
某公司的 AI 系統需處理大量含有個人健康資料的訓練集,法務部門要求必須採取隱私保護措施。工程師提議引入一種在訓練過程中加入隨機噪聲以保護個資的技術。請問這是什麼技術?
差分隱私透過在訓練資料或模型更新中加入受控隨機噪聲,防止模型記住個別資料點,在保持模型效能的同時保護個人資訊,是合規 AI 系統的重要技術。
某藝術生成平台在測試 GAN 模型時,發現無論輸入什麼隨機向量,生成器產出的圖片都是同一種風格,缺乏多樣性。請問這是什麼問題?
模式崩壞(Mode Collapse)是 GAN 訓練中常見問題,生成器找到「騙過」判別器的捷徑,只產出少數固定樣本,導致輸出多樣性極低。
某電競公司希望開發一個能在棋盤遊戲中自我學習、不斷提升對戰技巧的 AI 代理。請問最適合使用哪種學習方法?
強化學習透過代理人與環境互動、根據獎勵信號調整策略,特別適合遊戲操作、機器人控制等需要序列決策的場景,如 AlphaGo 即為典型應用。
視障輔助 APP 需要同時理解使用者拍攝的照片內容,並以自然語言描述給使用者聽。這種結合圖像與文字的多模態 AI 任務,最關鍵的融合技術是什麼?
Cross-Attention 能對齊並融合來自不同模態(如影像特徵與語言語意)的資訊,是 CLIP、Flamingo 等多模態模型的核心技術,讓模型理解圖文對應關係。
某餐飲連鎖品牌想用 AI 預測下週各門市的銷售量,但標記資料極少,大量未標記的歷史交易資料卻很豐富。請問最適合採用哪種技術策略?
半監督式學習結合少量標記資料與大量無標記資料進行學習,適合標記成本高但未標記資料豐富的場景,是 AI 初期導入時常見的資料策略。
公司技術長正在比較 BERT 與 GPT 兩種語言模型,準備選擇適合閱讀理解任務的架構。請問兩者最根本的架構差異是什麼?
BERT 使用雙向 Encoder,能同時考量前後文,適合語意理解任務;GPT 使用單向 Decoder,逐步生成文字,適合文本生成任務。兩者皆基於 Transformer 架構。
AI 治理顧問正在協助企業對照 NIST AI 風險管理框架,確認採用的功能是否完整。以下選項中,哪一個不屬於 NIST AI RMF 的四大核心功能?
NIST AI RMF 的四大功能為 Govern、Map、Measure、Manage,其中不包含「Predict」。框架強調對 AI 風險的識別、衡量與管控,而非以預測為核心功能。
某 AI 研究員正在訓練語言理解模型,所使用的方法是讓模型自行從大量未標記文字中,透過遮蔽詞彙預測等任務學習語意。請問這屬於哪種學習方式的核心特性?
自監督學習(Self-Supervised Learning)在無標記資料中設計 proxy 任務(如 masked language modeling)來產生訓練信號,是 BERT、GPT 等大型模型的預訓練基礎。
一家醫療診斷新創公司計畫在歐盟市場推出 AI 輔助病理影像分析系統。法務顧問提醒這屬於《EU AI Act》中的哪個風險等級,需要最嚴格的審查?
歐盟《AI 法案》將直接影響人身安全與基本權利的系統列為高風險,醫療診斷 AI 因涉及生命健康而受最嚴格規範,需提交合規文件、進行人工監督並通過第三方審查。
某多模態 AI 平台整合了語音助理與視覺辨識功能,但測試時發現圖像描述與對應文字語意嚴重不吻合,導致輸出結果錯誤。請問這最可能造成什麼問題?
多模態模型需確保圖文語意對齊,若對齊不足會造成模型學習到錯誤的跨模態關聯,導致預測誤差持續擴大,整體模型效能顯著下降。
社群媒體平台上出現大量以假亂真的 AI 生成名人影片,導致謠言大量傳播。請問這類 AI 生成虛假但可信內容的情境,在 NIST 框架中屬於哪種風險類型?
NIST 將 AI 生成虛假可信內容(如 deepfake、幻覺式輸出)歸類為資訊完整性風險,這類風險威脅社會信任與資訊生態,是 AI 治理的重點議題。
某金融科技公司想要用 AI 分析客戶的社交關係網路,以預測信用違約風險。技術主管建議使用一種能處理節點與連線關係的神經網路架構。請問最適合的技術是什麼?
GNN(Graph Neural Network)能處理圖結構資料的節點特徵與邊關係,適用於社交網路分析、詐欺偵測、推薦系統與知識圖譜等具有關係結構的任務。
某保險公司在導入 AI 核保系統後,監理機關要求其能解釋每筆核保決策的依據,並可追溯模型決策過程。以下哪種技術組合最能滿足此需求?
LIME 與 SHAP 是主流的模型可解釋性工具,能量化各特徵對單一預測結果的貢獻,支援決策透明化,是高風險場域 AI 系統合規的重要輔助工具。
政府推動數位政府計畫,希望讓 AI 服務平台能讓所有市民都能輕鬆使用,包括老年人與身障者。請問這最主要體現哪個設計原則?
數位涵容(Digital Inclusion)強調科技服務應讓所有人平等使用,設計上需考量無障礙存取、簡單易懂的介面,確保弱勢群體也能受益於 AI 服務。
資料科學團隊從 Twitter 蒐集了大量用戶留言,準備用來訓練情緒分析模型。在輸入模型之前,文字資料必須先經過哪項關鍵的前處理步驟?
非結構化文字資料需先經過斷詞(Tokenization)、雜訊清除、向量化(如 TF-IDF、Embedding)等 NLP 前處理步驟,才能作為深度學習模型的有效輸入。
電腦視覺工程師正在建立一個能識別倉庫貨物種類與位置的模型。資料標注人員需要在每張圖片上標記物品的類別和所在位置。請問應採用哪種標注方式?
邊界框標注(Bounding Box)為物件偵測任務提供物件類別與空間位置資訊,是監督式視覺學習中最基本的資料標注形式,常用於 YOLO、Faster R-CNN 等模型。
管理顧問正在向傳統製造業解釋 AI 專案與一般 IT 系統開發的不同之處。以下哪項說法是錯誤的,不應成為說明重點?
AI 專案仍需清楚定義業務問題與應用目標,需求定義是所有開發流程的起點。跳過此階段會導致模型方向錯誤,造成資源浪費與無效投入。
某串流平台的推薦模型在上線三個月後,點擊率開始持續下滑。工程師懷疑是使用者行為已發生變化導致模型失準。這種情況最可能是什麼問題?
模型漂移(Model Drift)是指部署後環境或使用者行為改變,導致訓練時的資料分佈與現實分佈出現偏差,使模型效能持續下降,需定期再訓練或監控觸發更新。
某 AI 公司正在為法庭開發輔助量刑建議系統。律師強調,系統必須能讓法官理解判斷依據,且在出現異常建議時必須有機制可問責。請問這最符合哪項 AI 治理的最低要求?
在法律、醫療等高風險場域,AI 系統必須滿足可解釋性(讓人理解決策依據)與問責機制(明確責任歸屬),是 AI 治理框架對高風險應用的最低合規要求。
台灣某銀行導入 AI 信用評分系統,金管會要求對於影響貸款核准與否的 AI 決策,銀行必須能夠向消費者說明。這符合金管會哪項要求?
金管會《金融業 AI 治理指引》明訂,影響消費者決策的 AI 系統須能提供合理說明(Explanation),確保金融消費者知情權與申訴管道。
某電商平台希望在兩週內快速部署 AI 客服機器人,並針對自家產品知識進行微調,但無法負擔從頭訓練的成本。請問最適合的模型策略為何?
基礎模型(如 GPT、BERT)已在大量資料上預訓練,具備廣泛語言能力,透過 Fine-tuning 即可快速適應特定業務場景,大幅降低開發時間與成本。
某開源 AI 社群在發布模型時附上了一份文件,詳細記載了訓練資料來源、適用場景、已知偏誤與限制。請問這份文件通常稱為什麼?
模型卡(Model Card)是 AI 治理文件的標準格式,記錄模型的訓練歷程、資料來源、應用限制、偏誤風險與倫理考量,有助於使用者做出知情判斷。
資安研究員發現某自駕車視覺系統在路標上貼上不易察覺的貼紙後,系統將「停止」標誌誤判為「限速 45」。請問這種攻擊手法屬於哪類 AI 安全威脅?
對抗樣本攻擊(Adversarial Attack)透過在輸入資料中加入人類難以察覺但能誤導模型的微小擾動,使模型產生錯誤判斷,是 AI 部署安全的重大挑戰。
教育科技平台希望根據每位學生的學習歷程與弱項,動態推薦最適合的練習題目與教材。請問這類個人化學習推薦最可能採用哪種模型?
協同過濾依據使用者的行為歷史與相似使用者的偏好進行推薦,是個人化推薦系統的核心技術,廣泛應用於教育科技、電商與影音平台。
某語言模型在進行長文本理解時,工程師發現模型無法區分句子中不同詞彙在語義上的多角度關聯,導致摘要質量低落。採用 Multi-Head Attention 設計的主要用意是什麼?
Multi-Head Attention 讓模型同時從多個「視角」捕捉序列中不同位置間的語意關聯,每個頭專注於不同的特徵子空間,提升了上下文建模的多樣性與豐富度。
研究人員希望使用生成式模型學習資料的潛在機率結構,並能夠通過操作潛在空間來生成具有特定特徵的樣本。相比傳統 Autoencoder,VAE 的核心理論創新是什麼?
VAE 基於變分推論,將潛在變數視為機率分布,透過最大化 ELBO(變分下界)實現近似後驗分布學習,使潛在空間具有連續性與可插值特性,是其相較於傳統 AE 的根本創新。
某公司訓練圖像生成 GAN 時,發現生成器只會產出幾種固定樣式的圖片,無論如何調整輸入都無法獲得多樣化輸出。工程師決定引入一種讓生成器感知批次內樣本多樣性的技術。請問是哪一種?
Mini-batch Discrimination 讓判別器能比較同一批次中不同樣本之間的相似度,促使生成器意識到多樣性需求,是對抗 GAN 模式崩壞最有效的策略之一。
某金融機構的 AI 模型在更新版本後,合規部門希望能追蹤每個版本的訓練資料來源、參數變更記錄與上線時間,以備監理機關查核。最合適的治理機制是什麼?
Model Lineage(模型血緣)記錄從資料收集、訓練到部署的完整流程,結合模型卡可提供版本追溯與決策可審計性,是 AI 治理合規的最佳實務。
某 NLP 研究員在比較不同 Transformer 配置時,發現模型無法分辨「我愛你」和「你愛我」的差異,因為兩者詞彙相同。這反映了 Transformer 哪個設計元素的必要性?
Transformer 的 Self-Attention 本身不含序列順序資訊,Position Encoding 透過在嵌入向量中加入位置信息來補足這一缺失,使模型能夠區分詞序不同但詞彙相同的句子。
AI 倫理審查委員會在評估一個用於大學錄取審核的 AI 系統時,討論到公平性指標的選擇。「Equal Opportunity」與「Equalized Odds」兩個指標的關鍵差異是什麼?
Equal Opportunity 只要求各群體的真陽性率(TPR)一致;而 Equalized Odds 更嚴格,同時要求 TPR 和假陽性率(FPR)在各群體間都保持一致,是更全面的公平性指標。
某跨國企業需要一個 AI 系統,能同時處理英文、日文、中文的客服問題,還能理解附件圖片並回答長篇技術文件的問題。請問最適合的技術方向是?
具備 In-Context Learning 的大型語言模型(如 GPT-4)可在單一模型中處理多語言、多模態輸入與長文本推理,無需針對每種語言或任務個別訓練,是跨語言多模態應用的最佳選擇。
某醫療 AI 系統具備高解釋性,醫生能看到每個特徵的影響。但有人認為高準確度的黑箱模型更可信。關於模型可解釋性與可信度的關係,下列哪項描述最合理?
模型可信度涵蓋效能穩定性、魯棒性與可解釋性三個面向,可解釋性有助於建立信任但並非充分條件;高準確率的黑箱模型缺乏透明度,仍可能因資料偏誤或分佈外失效而失去信任。
某醫療機構希望在多個院區間聯合訓練 AI 診斷模型,但患者資料受隱私法規限制不能集中存放。工程師提出結合邊緣運算與隱私保護技術的方案。請問最適合的技術組合是什麼?
聯邦學習讓各院區在本地訓練模型後只上傳梯度更新,透過聯邦平均合併全域模型;加入差分隱私可進一步保護梯度中的個人資訊,是符合醫療隱私法規的最佳方案。
AI 研究所正在探討「可驗證 AI(Verifiable AI)」的設計標準,希望確保某自動化交通管理系統的決策邏輯能夠被形式化地證明符合安全規範。請問此概念的核心精神是什麼?
可驗證 AI(Verifiable AI)指系統的內部推理邏輯可透過形式化方法(formal verification)加以數學證明,確保其在所有條件下符合安全性規範,是高安全需求場域的進階 AI 可信度要求。
某 AI 研究機構計畫訓練一個新版本的大型語言模型,但工程師擔心大量 GPU 訓練帶來的高碳排放。哪一種技術策略最能有效降低訓練時的碳足跡?
LoRA(Low-Rank Adaptation)僅調整少量低秩矩陣參數,而非重新訓練整個模型,大幅降低計算資源需求與能源消耗,是 AI 可持續發展的重要策略。
某 NLP 團隊正在分析語意嵌入空間的幾何性質,發現語義相近的詞彙在高維空間中形成緊密的群聚結構。這反映了語意嵌入空間怎樣的特性?
流形假設(Manifold Hypothesis)指出高維資料實際上分布在嵌入空間的低維流形上,語意相近的概念在高維空間中形成緊密聚類,這是詞向量空間類比推理(如 king - man + woman = queen)的幾何基礎。
某法律科技公司希望建立一套 AI 推理系統,能夠依據法條規則進行邏輯推理,同時利用神經網路處理語義理解。請問這種結合兩種技術的系統設計屬於什麼?
神經符號 AI(Neurosymbolic AI)結合神經網路的語意表徵能力與符號邏輯系統的規則推理能力,能處理需要精確邏輯推理與語義理解並重的複雜任務,如法律推理、科學知識庫查詢。
某公司希望在不重新訓練整個語言模型的前提下,讓模型能快速適應特定任務(如客服對話風格調整)。工程師建議採用只訓練輸入提示向量的輕量化方法。這屬於什麼技術?
Prompt Tuning 保持預訓練模型參數不變,僅訓練一組可學習的提示向量(Soft Prompts),是少樣本學習與快速任務適應的高效策略,計算成本遠低於完整微調。
某台灣企業計畫在歐盟推出 AI 輔助人資篩選系統,協助初步篩選求職者履歷。法務顧問評估這屬於高風險 AI 應用。部署前最基本的合規要求是什麼?
依據《EU AI Act》,高風險 AI 系統(如人資篩選)必須符合可解釋性要求、具備資料治理文件、進行持續風險監控,並保存詳細技術文件以供監管審查。
某 AI 邏輯推理系統需要判斷一組命題是否存在滿足所有條件的解。資訊工程師告知這類問題在計算複雜度上屬於特定問題類型。請問 SAT(可滿足性)問題屬於哪一類計算問題?
SAT(Boolean Satisfiability)問題是第一個被證明為 NP-Complete 的問題(Cook-Levin 定理),所有 NP 問題都可在多項式時間內歸約至 SAT,是計算複雜度理論的基石。
某 AI 晶片公司正在開發下一代推論加速器,希望減少模型在邊緣設備上的計算量。工程師提議採用讓部分子網路參與推論的「稀疏性」設計。這項技術的主要效益是?
稀疏模型(如 Mixture-of-Experts)透過動態路由機制,讓每次推論只激活部分子網路,大幅降低計算量與延遲,在維持模型能力的同時提升推論效率,是邊緣 AI 部署的重要技術。
某法律 AI 助理在查詢最高法院判例時,給出了一份引用詳細、邏輯清晰卻完全不存在的判決書。這最符合哪種 AI 風險類型?
生成式 AI 的幻覺(Hallucination)現象是指模型輸出看似合理但實為捏造的資訊。在法律場域,這類虛假引用可能誤導當事人,造成嚴重後果,需配合 RAG 或人工驗證機制防範。
某機器人導航系統在執行任務時,感測器資料存在雜訊,機器人無法確切知道自己當前的位置與狀態。為了讓機器人仍能做出合理決策,應採用哪種強化學習框架?
POMDP(Partially Observable MDP)專門處理代理人無法完全觀測環境狀態的情境,透過維護對當前狀態的機率信念(belief state)來指導決策,廣泛應用於機器人導航與對話系統。
某城市採用 AI 系統輔助公共資源分配決策,但沒有設計回饋修正機制。三年後,系統被發現持續強化了某些不公平的初始決策傾向。這最可能是什麼風險的體現?
當 AI 系統的輸出影響後續資料收集或政策執行,而缺乏人類回饋修正時,可能形成偏見自我強化的正回饋迴圈,使不公平的決策模式不斷累積放大,是 AI 長期部署的系統性風險。
某核電廠安全監控 AI 系統需要提供具有數學保證的安全性,確保在任何輸入條件下都不會觸發誤報。負責系統安全驗證的工程師建議採用哪類工具?
形式驗證系統(Formal Verification)使用一階邏輯與 SAT/SMT Solver 對系統行為進行數學證明,確保輸出在所有可能輸入下均符合安全規範,是高安全需求場域(核能、航空)的必要技術。
某招募平台的 AI 履歷篩選系統,訓練資料主要來自過去十年間成功晉升的員工記錄。稽核後發現這些員工幾乎都是特定背景的人。這種現象會造成什麼問題?
樣本選擇偏誤(Sample Selection Bias)使訓練資料無法代表真實目標群體,導致模型在推論時對未充分代表的群體表現差,在人資、醫療等社會決策場域尤為嚴重。
某 NLP 實驗室正在大量未標記的網路爬蟲文字上進行模型預訓練,採用的方法是讓模型預測被遮蔽的詞彙。這種預訓練策略的本質是什麼?
自我監督學習(Self-Supervised Learning)在無標記資料中設計代理任務(如遮蔽詞預測、句子順序預測)來產生訓練信號,是 BERT、GPT 等大型模型預訓練的核心方法論。
某 AI 壓縮研究小組在討論資訊瓶頸理論時,爭論到模型應該如何在「保留對預測有用的資訊」與「過濾掉輸入中的雜訊」之間做取捨。這兩個目標的關係為何?
資訊瓶頸理論(Information Bottleneck Theory)指出模型應在壓縮輸入(去除與輸出無關的雜訊)與保留預測所需資訊之間取得平衡,兩者存在本質的 trade-off,此理論為深度學習的泛化能力提供了理論解釋。
某研究團隊要同時訓練文字分類、情緒辨識和命名實體識別三個 NLP 任務的模型,希望共享底層語言表示以提升資料利用效率。這種架構設計屬於什麼學習範式?
多任務學習(Multi-Task Learning)透過共享底層表示層(Shared Encoder)讓不同任務相互強化,各任務再接上專屬輸出層,既降低對大量標記資料的依賴,又提升模型的泛化能力。
某藝術 AI 平台在開發「依指定風格生成圖像」功能時,需要一種能在生成空間中調控特定屬性(如光線強度、色調)的技術。請問最適合的方法是?
Latent Traversal(潛在空間遍歷)透過沿特定方向調整潛在變數,實現對生成結果特定屬性(風格、顏色、角度)的精確控制,是 VAE 與 GAN 的核心應用技術之一。
某民主國家立法機構正在審議 AI 相關法律,重點是確保 AI 在公共行政決策中不能完全取代人工審查,且受影響公民有權申訴。這體現了什麼概念?
AI 法治化(AI and the Rule of Law)要求 AI 系統在法律框架下具備可解釋性、可問責性與可訴訟性,確保公民在受 AI 決策影響時擁有適當的法律救濟途徑,是民主社會導入 AI 的核心原則。
某大型語言模型的初版輸出常常含有偏激內容且未能遵循使用者意圖。開發團隊決定引入人類評估者對模型回應進行偏好標記,並以此調整模型行為。這套訓練流程稱為什麼?
RLHF(Reinforcement Learning from Human Feedback)是 ChatGPT、Claude 等對話模型的關鍵對齊技術,透過人類偏好數據訓練獎勵模型,再用強化學習調整生成策略,使輸出更符合人類期望與倫理標準。
某醫療 AI 輔助診斷系統的設計原則要求:醫生可以隨時撤銷、修改或完全推翻 AI 的任何建議,而不需要向系統說明理由。這符合人機協作中的哪項設計原則?
可逆性原則(Reversibility Principle)是人機協作倫理的核心要求,確保使用者始終保有對 AI 決策的控制權,可隨時中止、修改或推翻系統輸出,防止過度依賴或 AI 失控造成的不可逆後果。
某航空公司在引入 AI 自動飛行輔助系統後,發現飛行員因長期依賴自動化系統,導致在緊急狀況下手動操作能力明顯退化。這種現象最適合用什麼概念描述,應如何應對?
技能侵蝕效應(Skill Atrophy)指人員因過度依賴自動化系統而喪失關鍵技能,在 AI 故障時無法有效應對。應對策略包括設計強制性手動練習機制與維持適度人工干預的介面設計。
某自動駕駛公司希望確保 AI 系統的決策符合人類的道路倫理與社會期望,例如在不可避免的碰撞中如何取捨。這需要在模型設計中融入什麼機制?
價值一致性(Value Alignment)要求 AI 系統的行為目標與人類價值觀一致,需在訓練過程中融入人類偏好數據、倫理約束與社會規範,是 AI 安全與倫理設計的核心挑戰。
某跨部門 AI 專案委員會在討論複雜 AI 系統的管理時,引用了「常態事故理論」,認為即使在正常運作條件下,複雜系統也無可避免會產生意外。對此,最合適的工程應對策略是?
常態事故理論(Normal Accident Theory)指出高度複雜與緊密耦合的系統必然存在失控風險,應對策略是建立多層防禦(Defense in Depth)、容錯機制與即時監測系統,而非試圖完全消除複雜性。
某石化廠導入 AI 系統進行工廠流程控制,需要同時監控溫度、壓力、流量等多個變數,並在滿足安全約束的前提下最大化生產效率。這屬於 AI 在什麼場域的應用挑戰?
模型預測控制(MPC)在智慧製造中需動態預測多變量系統的未來行為,並在滿足物理與安全約束的條件下優化控制輸出,對 AI 模型的即時性、穩定性與可解釋性都有高度要求。
某自動倉儲系統有多個 AI 機器人代理在同一空間協作,每個代理不僅需要完成自己的任務,還需要預判其他機器人的移動意圖以避免衝突。這種能力屬於什麼?
社會感知(Social Awareness)是多智能體系統中協作代理的關鍵能力,涉及對其他代理意圖、目標與行為軌跡的推斷,使代理能夠進行預測性協作而非純反應性規避。
某醫療 AI 系統在更新新版本後,舊有的辨識技能明顯退步,同時獲得新技能。醫療團隊擔心這會影響既有診斷流程的穩定性。請問這是什麼現象?
災難性遺忘(Catastrophic Forgetting)是連續學習(Continual Learning)的核心挑戰,當模型學習新任務時,原有任務的知識可能被覆蓋,導致舊任務效能顯著下降,需採用 EWC 或 Progressive Networks 等技術緩解。
某政策分析師使用 AI 工具評估:「如果 2020 年政府未實施某項補貼政策,失業率會是多少?」這種分析屬於哪種 AI 推理能力?
反事實推理(Counterfactual Reasoning)探討「若當時做了不同的選擇,結果會如何」的假設性問題,是因果推論的核心工具,對政策評估、醫療決策與公平性分析具有重要應用價值。
某博物館開發了 AI 導覽系統,能自動為上傳的展品照片生成詳細的文字描述。這個任務的技術核心在於解決什麼問題?
圖像描述生成(Image Captioning)的核心是視覺語意對齊,需透過 Cross-Attention 機制將視覺特徵(CNN/ViT 提取的影像嵌入)與語言語意空間進行對齊,CLIP 與 Flamingo 等模型皆採用此架構。
某城市在颱風期間啟用 AI 緊急應變系統,但系統因感測器受損導致部分功能失效。應急管理委員會要求系統必須能在降級條件下繼續提供關鍵決策支援。這需要 AI 系統具備什麼設計特性?
AI 系統韌性(Resilience)設計要求系統在部分組件失效時仍能維持核心功能,包含降級服務(graceful degradation)、故障自動切換(failover)與快速恢復機制,是關鍵基礎設施 AI 應用的必要要素。
哲學學者在討論 AI 倫理責任時提出:如果一個 AI 系統能感知自己行動的後果,並根據規範做出選擇,是否可以賦予其倫理責任?請問判斷 AI 是否具備道德代理(Moral Agency)的核心依據是什麼?
道德代理(Moral Agency)理論認為責任主體需具備感知行動後果的能力、基於規範做出選擇的自主性,以及預測後果的推理能力。目前主流觀點認為 AI 尚不具備完整道德代理能力,責任仍歸屬於開發者與使用者。
某金融監理機構發現,市場上多家銀行都使用相同的第三方 AI 信用評分模型,且各家系統的評分結果存在高度相關性。監管人員最擔心的潛在系統性風險是什麼?
當多個 AI 模型共享相同訓練資料來源並在相同環境中部署時,可能產生決策協同偏誤(Collusive Bias),各系統互相強化相同的錯誤判斷,在金融市場中可能引發系統性風險,如同步拒絕貸款或同步做出錯誤投資決策。
智慧交通系統需整合來自路口攝影機、車速感測器、氣象站與 GPS 的資料。在進行多源資料融合前,最關鍵的前處理步驟是什麼?
來自不同感測器的異質資料在採集時間與頻率上存在差異,必須先進行時間戳對齊與同步處理,才能確保多源資料在相同時間基準上進行有意義的融合分析,是多感測器系統的基礎前處理步驟。
資料科學新人加入團隊後,主管要求他在開始訓練模型前先完成資料處理工作。請問標準的機器學習資料處理流程順序為何?
機器學習的標準流程遵循「資料蒐集 → 清理(去除雜訊、處理缺值)→ 特徵工程(轉換、選擇、建構特徵)→ 模型訓練」的順序,資料品質是模型效能的根本基礎。
法規遵循主任正在盤點公司 AI 系統中使用的資料隱私保護技術。他列出了聯邦學習、差分隱私、資料正規化、PII 去識別化四項,其中哪一項與隱私保護無直接關係?
資料正規化(Normalization)是將數值特徵縮放至特定範圍的資料前處理技術,目的在於改善模型訓練收斂,與個人資料隱私保護無直接關係。其他三項皆為 AI 隱私保護的核心技術。
物流公司希望用 AI 預測未來三個月的各據點包裹量,以提前調配人力。由於包裹量數據有明顯的時間規律(如週末高峰、節日旺季),請問最適合的模型架構是什麼?
LSTM(Long Short-Term Memory)具備記憶單元能保留長期時間依賴性,特別適合具有時間規律的序列資料預測任務,如銷售預測、物流量預測、股票走勢等。
某企業部署了一個讓員工能用中文提問、AI 自動回答公司政策的系統。請問這套系統最可能整合了哪兩項核心技術?
企業問答系統結合 NLP 的語意理解技術(如語意搜尋、意圖識別)與問答系統(QA System)的資訊擷取能力,讓使用者能以自然語言查詢結構化知識庫,是企業知識管理的常見 AI 應用。
半導體製造廠希望在生產線上自動偵測晶圓表面的微小瑕疵,以取代人工目視檢查。請問最適合用於這類影像瑕疵偵測任務的模型架構是什麼?
CNN 在影像特徵提取上表現卓越,透過卷積層學習局部紋理與形狀特徵,是製造業瑕疵偵測、醫學影像分析等視覺 AI 任務的標準架構。
某 AI 客服系統在正式上線後的第一個月表現良好,但三個月後隨著公司推出新產品線,系統開始無法正確回答客戶問題。這最可能是哪種部署後風險?
模型漂移(Model Drift)是指部署後現實環境發生變化(如新產品、新術語、用戶行為改變),導致訓練時的資料分佈與當前環境不符,造成模型效能下降,需建立監控機制並定期觸發再訓練。
某 HR 科技公司的 AI 績效評估系統,對於少數族裔員工的評分系統性地低於其白人同事,即便兩者工作表現相似。稽核人員應使用哪種工具來量化這種不公平現象?
Disparate Impact Ratio(差別影響比率)等公平性指標可量化 AI 模型對不同族群的決策差異,是偏誤偵測與公平性審計的專用工具,符合美國 EEOC 等反歧視法規的評估要求。
某醫院的 AI 診斷輔助系統需要通過監管機構審查,要求能清楚解釋為何模型對特定病患做出高風險判斷。工程師應優先導入哪種技術?
LIME 與 SHAP 是主流的模型後解釋(Post-hoc Explanation)工具,能針對每個單一預測說明各特徵的貢獻度,幫助醫生理解模型決策依據,是高風險 AI 應用合規審查的重要技術支援。
某食品廠計畫導入 AI 品質管控系統,管理顧問建議採用漸進式的導入策略,而非一次性全廠部署。根據製造業 AI 導入指引,最建議的起始點是什麼?
根據工業 AI 導入最佳實務,應從具有高回報潛力且影響範圍可控的單一節點開始驗證(POC),成功後再逐步擴展,以最小化技術風險與組織衝擊,確保導入效益可衡量。
某 AI 團隊發現資料集中某個欄位有 40% 的缺失值。資料科學家建議直接刪除含缺值的列,但另一位工程師提出反對。直接刪除缺值列的主要潛在風險是什麼?
若缺值的出現並非完全隨機(MCAR),直接刪除含缺值的樣本可能使訓練資料系統性地排除某類樣本,造成樣本選擇偏誤,導致模型在真實部署環境中對這些群體表現不佳。
基因體學研究需要分析數萬個 SNP 特徵的資料,但樣本數只有幾百個病患。在這種特徵數遠多於樣本數的高維場景中,哪種監督式演算法最適合?
SVM 透過核技巧(Kernel Trick)在高維特徵空間中構建最大間隔超平面,並具備 L2 正則化效果,能有效處理特徵維度遠超樣本數的問題(如基因組資料),是高維小樣本場景的常用方法。
某 AI 團隊訓練隨機森林分類器來預測客戶流失,但使用了非常少量的決策樹(只有 5 棵)。測試集的表現相當差。請問問題最可能是什麼?
隨機森林是集成學習方法,需要足夠數量的決策樹(通常 100 棵以上)才能通過集成效應降低方差。樹太少時模型無法充分學習資料的複雜模式,導致高偏差(偏差-方差權衡)。
深度學習研究員在設計 CNN 架構時,選擇使用 ReLU 作為啟用函數,而非 Sigmoid。請問 ReLU 相對於 Sigmoid 的主要優勢是什麼?
ReLU(Rectified Linear Unit)對正值保持梯度為 1,對負值輸出 0(稀疏激活),有效解決了深層網路中 Sigmoid 函數造成的梯度消失問題,同時引入非線性特性,加速模型訓練收斂。
情感運算研究室正在開發語音情緒辨識系統,需要區分憤怒、快樂、悲傷等情緒。針對語音訊號的時序特性與聲學特徵,最適合的模型與特徵組合是什麼?
語音是時序訊號,LSTM 的記憶機制能捕捉語音的時間動態特性;MFCC 模擬人耳對頻率的感知方式,是能有效表達情緒相關聲學特徵的標準語音特徵提取方法,兩者的組合是語音情緒辨識的主流方案。
某強化學習工程師正在實作機器人手臂控制系統。在任意狀態 s 下,系統依據策略函數決定動作。請問策略函數 π(a|s) 的數學意義為何?
策略函數 π(a|s) 定義了代理人在給定狀態 s 下選擇每個動作 a 的機率分佈,是強化學習的核心組件,可以是確定性策略(直接輸出動作)或隨機性策略(輸出動作機率分佈)。
某翻譯平台工程師在分析 Transformer 模型的內部機制時,發現 Self-Attention 能讓模型在翻譯一個詞時,考量整個句子中所有其他詞的相關程度。這個機制解決了什麼問題?
Self-Attention 機制讓模型在處理每個詞時,能動態計算其與序列中所有其他詞的相關性(注意力權重),從而捕捉長距離語意依賴,這是 Transformer 取代 RNN 的關鍵技術突破。
AI 繪圖工具的工程師向用戶解釋:系統先對原始圖像逐步加入高斯噪音,訓練時學習如何將純噪音逐步還原為清晰圖像。請問這是哪種生成模型的原理?
擴散模型(Diffusion Model)基於「前向加噪 → 逆向去噪」的學習框架,訓練時學習將高斯噪音逐步還原為真實資料的過程,已在高品質圖像生成(Stable Diffusion、DALL-E 3)中取得最先進的效果。
某音樂串流平台的資料科學家希望基於使用者隱含的聆聽偏好(如播放次數、跳過行為)建立推薦模型,找出使用者與歌曲之間的潛在特徵向量。最適合的演算法是?
矩陣分解(Matrix Factorization)將使用者-物品互動矩陣分解為低維潛在向量,能捕捉隱含的偏好特徵,是協同過濾推薦系統的核心技術,廣泛應用於音樂、影片、電商推薦場景。
某 AI 藝術創作平台使用 VAE 生成圖像,用戶希望透過微調潛在向量 z 來控制生成風格。請問 VAE 的潛在變數 z 通常服從什麼分佈?
VAE 在設計上將潛在變數 z 正規化為標準正態分佈,透過 KL 散度項約束潛在空間的形狀,並利用重參數技巧(Reparameterization Trick)使梯度可反向傳播,確保潛在空間的連續性與可操控性。
某 NLP 工程師在訓練文字分類模型前,需要將原始的句子轉換為模型可以計算的數值向量。請問這個關鍵步驟稱為什麼?
詞嵌入(Embedding)是將詞語或句子映射到連續向量空間的技術,如 Word2Vec、BERT Embedding,讓模型能進行向量運算並捕捉語意關係,是 NLP 模型處理文字輸入的核心步驟。
某企業 AI 系統已上線運作半年,法規遵循部門要求能追蹤每次模型更新的訓練資料版本、參數設定與效能變化記錄。以下哪種機制最能滿足此需求?
模型卡(Model Card)結合訓練流程日誌記錄、資料版本控制(如 DVC)與效能追蹤,是 AI 模型生命週期管理的最佳實務,確保模型行為的可再現性、可追溯性與合規性。
某 GAN 模型在訓練過程中出現生成器學習完全停滯的情況,即使增加訓練輪數也無改善。工程師診斷後認為原因是判別器與生成器的學習速度嚴重失衡。這最可能是什麼問題?
GAN 訓練的穩定性高度依賴生成器與判別器的學習速度平衡。若生成器訓練過快,判別器尚未學會有效辨別,梯度信號失去意義;反之判別器太強則生成器梯度消失。可透過學習率調整、梯度懲罰(WGAN-GP)等方法改善。
某新聞平台的 AI 文章分類系統涉及數千個類別,直接使用 One-hot 編碼導致向量維度過高,嚴重影響訓練效率與記憶體使用。最適合解決這個問題的技術組合是什麼?
子詞分段技術(如 BPE)可將詞彙表壓縮至可管理的規模(通常 3~5 萬),搭配密集的向量嵌入(Dense Embedding)取代稀疏的 One-hot 表示,大幅降低維度負擔並學習到語意相似性。
網路資安系統需要偵測前所未見的新型攻擊模式,正常流量資料充足但異常樣本極少。在這種資料嚴重不平衡的情境下,哪種模型最適合偵測異常行為?
Autoencoder 可學習正常資料的壓縮表示,對異常資料的重建誤差會顯著偏高;One-Class SVM 則只從正常樣本學習決策邊界。兩者都適合在缺乏異常標記資料的情境中進行異常偵測。
某語音轉文字系統面臨輸入語音片段長度與文字標注長度不一致的挑戰(例如連音或靜音處理)。工程師選擇了一種專門解決序列輸入與輸出長度對齊問題的損失函數。這是哪種技術?
CTC(Connectionist Temporal Classification)損失函數透過動態規劃允許輸入序列(語音幀)與輸出序列(文字標籤)長度不一致,透過引入空白標籤處理對齊問題,是語音辨識與手寫字識別的關鍵技術。
某借貸平台的信用模型被監管機構要求解釋為何特定申請者被拒貸。工程師需要針對這一個申請案例說明各特徵的影響。請問 LIME 的核心工作原理是什麼?
LIME(Local Interpretable Model-agnostic Explanations)對待解釋的輸入樣本附近進行隨機擾動,觀察這些小變化對模型輸出的影響,再擬合一個局部可解釋的線性模型,以近似黑箱模型在該點的局部行為。
某銀行 AI 核貸系統在金管會稽查時,被要求提供每筆拒貸決策的說明文件,並展示模型的驗證流程。根據《金融業 AI 指引》,模型設計最需遵循哪項原則?
金管會《金融業人工智慧(AI)應用指引》要求影響消費者的 AI 模型須具備可稽核性(Auditability)、可解釋性(Explainability)及明確的問責制度(Accountability),確保金融消費者權益。
某新創公司在開發 AI 系統時,使用了網路爬蟲抓取的大量資料,但無法確認這些資料是否有合法授權使用。法律顧問指出這違反了 AI 治理的某項原則。請問是哪一項?
資料來源正當性原則要求 AI 訓練資料的取得方式合法、有授權,不涉及侵犯著作權、個人隱私或未經同意的資料使用,是 AI 治理與企業合規的基本要求,違反可能面臨法律訴訟。
某科技公司開發了一套「智慧會議助理」,能同時識別與會者說話的語音內容,並自動生成結構化的會議紀錄摘要。這個系統最可能採用哪種核心架構?
智慧會議系統需整合語音辨識(ASR)與自然語言處理(NLP)兩種模態,利用 Encoder-Decoder with Cross-Attention 架構對齊語音與文字語意,再生成摘要輸出,是多模態語音轉文字摘要的主流架構。
AI 研究員正在介紹 BERT 模型的預訓練方法,他解釋 BERT 能理解雙向語境的原因。請問 BERT 預訓練使用了哪兩個核心任務?
BERT 預訓練的兩大核心任務:MLM(Masked Language Modeling)隨機遮蔽 15% 的詞彙讓模型預測,建立雙向語境理解;NSP(Next Sentence Prediction)判斷兩個句子是否連貫,建立跨句子的語意推理能力。
某 AI 寫作助理被用戶抱怨輸出內容過於保守、千篇一律,缺乏創意與語言多樣性。工程師排查後發現可能與生成參數設定有關。最可能是哪個參數設定問題?
Temperature 控制生成時機率分佈的「尖銳程度」,數值過低(接近 0)使模型總選擇最高機率的詞彙,導致輸出保守且重複;適當提高 Temperature 可增加生成的多樣性與創意性。
某法律文件分析系統需要處理動輒數萬字的合約,但標準 Transformer 模型受限於輸入長度上限,無法一次處理完整文件。工程師希望在不大幅增加計算成本的情況下擴展處理能力。最適合的方法是?
Sparse Attention(如 Longformer、BigBird 採用的滑動窗口注意力)只計算局部與少數全域位置的注意力,將複雜度從 O(n²) 降低至 O(n),能在有限記憶體內處理遠超標準限制的長文本。
某機器學習模型在訓練集上達到 99% 準確率,但在測試集上只有 65% 準確率,表現極差。請問這個模型發生了什麼問題?
過擬合(Overfitting)指模型對訓練資料學習過度,記住了資料中的噪音與特定樣本,導致在未見過的測試資料上泛化能力差。解決方法包括正則化(L1/L2)、Dropout、資料增強與增加訓練樣本。
某深度學習模型訓練時 loss 收斂速度很慢,工程師嘗試了多種優化器後發現 Adam 效果最好。請問 Adam 優化器的主要技術優勢是什麼?
Adam(Adaptive Moment Estimation)結合了 RMSprop 的自適應學習率與 Momentum 的梯度動量估計,能根據每個參數的梯度歷史自動調整學習率,收斂速度快且穩定,是深度學習訓練的主流優化器。
某博物館開發了多模態語音導覽 APP,需要同時處理展品圖像與語音解說,讓視障用戶能以語音提問圖像內容。請問最適合此場景的核心架構是?
雙塔模型讓圖像與語音分別通過各自的 Encoder 生成嵌入向量,再透過 Cross-Attention 進行跨模態語意對齊;這種架構是多模態融合的主流設計,廣泛應用於視覺問答(VQA)與多模態搜尋系統。
某 AI 新創公司需要在邊緣裝置(如手機)上部署影像辨識模型,但設備算力有限,無法直接運行訓練時使用的大型模型。工程師建議採用一種「師生學習」的壓縮技術。這是什麼技術?
模型蒸餾(Knowledge Distillation)讓較小的學生模型模仿大型教師模型的「軟輸出」(Soft Labels),轉移教師模型的知識而不需匹配其架構,是部署輕量化模型的最常用壓縮技術。
某生成式 AI 研究員發現,透過操控 VAE 潛在空間的單一維度,可以獨立控制生成人臉的年齡而不影響其他特徵。這種特性在生成式模型研究中稱為什麼?
語意可分性(Disentanglement)指潛在空間的不同維度能獨立對應特定的語意屬性(如年齡、性別、光線),使生成結果可被精確控制,有利於模型解釋性研究與可控生成應用(如 β-VAE)。
某歐洲用戶要求一家台灣 AI 新創公司刪除其在訓練資料中的個人照片,並要求確認模型已不再受該資料影響。這對應到哪項法律權利?
被遺忘權(Right to be Forgotten)源自歐盟 GDPR 第 17 條,賦予個人要求資料控管方刪除其個人資料的權利。在 AI 場景中,這延伸為要求從模型訓練資料中移除個人資料,並盡可能消除其對模型的影響,是機器學習隱私法規的新興挑戰。
某金融交易系統部署了 AI 異常偵測模型,需要即時處理每秒數千筆新交易,並根據最新的交易模式不斷更新模型。這種學習架構的名稱是什麼?
線上學習(Online Learning)能在接收每批新資料時即時更新模型參數,無需重新訓練完整模型,特別適合資料流式更新的動態環境,如金融交易監控、即時推薦系統與 IoT 感測資料分析。
某中小企業 AI 負責人考慮使用 Google AutoML 來訓練產品圖像分類模型,但擔心不懂技術。業務顧問向他說明 AutoML 可以自動完成哪些工作?
AutoML 平台(如 Google AutoML、Azure Automated ML)能自動執行資料擴增、神經架構搜尋(NAS)與超參數優化(HPO),大幅降低機器學習的技術門檻,讓非專家也能訓練高效模型。
社群媒體分析師需要從大量推文中自動提取出品牌名稱、地點和重要人物,以便建立輿情監測系統。請問最適合用哪種 NLP 技術?
命名實體識別(NER)專門從非結構化文本中識別並分類具特定語意功能的實體(人名、地點、組織、品牌等),是輿情分析、事件追蹤與知識圖譜建構的基礎 NLP 技術。
某 AI 研究室有多位研究員需要協作標注大量醫療影像(X 光、MRI),以建立疾病偵測訓練集。請問最適合的資料標注工具是什麼?
Label Studio 是功能豐富的開源資料標注平台,支援影像、文字、音訊、影片等多種資料類型,提供多人協作標注、品質控制與標注流程管理功能,是 AI 訓練資料準備的重要工具。
某機器學習工程師在進行特徵預處理時,將所有數值特徵轉換為平均值為 0、標準差為 1 的標準化形式。請問這種方法的專業名稱是什麼?
Z-score 標準化(也稱 Standardization)將特徵轉換為均值 0、標準差 1 的標準常態分佈,能消除不同量級特徵對梯度計算的影響,有助於模型訓練收斂,適用於大多數基於距離或梯度的機器學習模型。
開發者使用 HuggingFace Transformers 函式庫載入預訓練的 BERT 模型時,發現需要先下載特定的設定檔。請問最基本的必要步驟是什麼?
使用 HuggingFace 載入預訓練模型時,必須同時下載對應的 Tokenizer(定義如何對文字進行分詞)與 config.json(定義模型架構),才能正確將文字轉換為模型輸入並載入對應的權重。
某房價預測模型中包含了「建坪」、「室內面積」、「使用面積」三個高度相關的特徵。模型表現異常不穩定,係數估計跳動劇烈。這最可能是什麼問題?
多重共線性是指多個輸入特徵高度相關,導致迴歸係數估計不穩定、解釋性降低。解決方法包括使用 VIF 篩選特徵、進行 PCA 降維,或改用 Ridge Regression 加入 L2 正則化。
某文本分類模型使用詞袋(Bag-of-Words)模型,造成特徵向量維度超過十萬維,訓練記憶體嚴重不足。以下哪種方法最有效地降低維度同時保留語意資訊?
PCA 可將高維稀疏特徵投影至低維主成分空間;密集詞向量嵌入(如 Word2Vec、GloVe)則直接學習低維語意表示(通常 128~768 維),兩者都能有效降低維度同時保留或增強語意關係。
某工廠的設備感測器資料中包含一些異常高溫讀數。資料工程師需要判斷這些讀數是感測器故障的錯誤資料,還是真實的設備過熱事件,再決定如何處理。最正確的處理流程是什麼?
離群點(Outlier)處理需先分析其成因:若為測量錯誤則應修正或刪除;若為真實的極端事件則應保留,甚至可能是最有價值的資訊。盲目刪除可能導致模型無法偵測真實的異常事件。
工業 IoT 平台需要儲存來自數千台機器每秒產生的溫度、壓力、震動等感測器讀數,並支援快速查詢歷史趨勢。請問最適合的資料儲存架構是什麼?
時序資料庫(TSDB)專為大量帶有時間戳記的連續資料設計,提供高效的時間範圍查詢、資料壓縮與聚合統計功能,InfluxDB、TimescaleDB 是常見選擇,是 IoT 系統資料管理的最佳選項。
某醫療 NLP 系統在訓練罕見疾病分類器時,90% 的訓練資料是正常病例,罕見疾病只有 10%,導致模型幾乎不識別罕見疾病。最適合的處理策略是?
SMOTE(Synthetic Minority Oversampling Technique)透過插值生成少數類別的合成樣本;類別加權損失函數則讓模型對少數類別的分類錯誤給予更高的懲罰,兩者皆是處理類別不平衡的有效策略。
某公司在正式投入資源開發 AI 系統前,先以小規模實驗驗證技術方案是否可行,並評估能否解決核心業務問題。請問這個階段的名稱是什麼?
概念驗證(POC)是在正式開發前,以有限資源快速驗證技術可行性與商業價值的關鍵階段。成功的 POC 能降低全面開發的風險,是 AI 專案導入流程中的標準第一步。
某保險公司的核保 AI 系統需要通過金融監理機關的審查,要求系統能為每筆核保決策提供可理解的說明。在醫療、金融等高風險場域,哪種技術最能有效提升模型解釋能力?
SHAP(SHapley Additive exPlanations)基於博弈論的 Shapley 值,能公平分配每個特徵對預測結果的貢獻度;LIME 提供局部線性近似解釋。兩者皆是高風險 AI 應用合規審查的關鍵工具。
某老牌保險公司使用的 AI 理賠審核系統,其底層技術是一套明確的規則庫(如:若受傷部位為手,且工作性質為辦公室,則理賠比例為 X%)。請問這屬於哪種 AI 推理架構?
專家系統(Expert System)是 AI 的早期重要範式,基於領域專家的知識建構明確的規則庫(if-then rules)進行推理,在知識可編碼、規則清晰的應用場景(如保險理賠、醫療診斷輔助)中仍廣泛使用。
某 AI 研究員在探索高維基因表達資料集時,希望先對資料分佈、群聚結構與異常點進行視覺化理解,再決定分析策略。最適合用哪種技術進行初步探索?
t-SNE(t-distributed Stochastic Neighbor Embedding)和 PCA 能將高維資料投影到 2D/3D 空間,使研究員能夠觀察群聚結構、類別邊界與離群點分佈,是高維資料探索性分析(EDA)的標準工具。
某 AI 課程導師向學生解釋人工智慧的五大核心能力模組,並要求學生找出不在標準分類中的一項。下列哪一個不是 AI 系統的主要能力模組?
AI 系統的五大核心能力模組為:感知(Perception)、理解(Comprehension)、推理(Reasoning)、決策(Decision)與行動(Action)。創新能力(Creativity)是延伸目標,並非目前定義中的核心標準模組。
某 AI 翻譯系統在台灣辦公室測試時表現良好,但實際部署給全球用戶使用後效果卻明顯下降,特別是在俚語和口語表達上。最可能的根本原因是什麼?
概念漂移(Concept Drift)是指模型訓練時的資料分佈與實際部署環境的資料分佈存在差異(如地區用語、時代語境不同),導致模型在訓練集外表現失準,是跨文化、跨地區 AI 部署的常見挑戰。
某智慧客服系統需要理解客戶語音投訴的情緒,並根據前後幾句話的語境做出適當回應。請問最適合處理這種具有時序性語音資料的模型是什麼?
語音資料具有時間序列特性,RNN/LSTM 的記憶機制能保留前後時間步的上下文資訊,是處理語音辨識、語音情緒分析等需要考量時間依賴性任務的適合架構。
某公司 DBA 發現資料庫中的部分資料在傳輸過程中被未授權修改,導致 AI 模型的訓練結果出現異常。這違反了資料治理的哪項核心原則?
資料完整性(Data Integrity)是資料治理的五大核心原則之一,確保資料在全生命週期(收集、儲存、處理、傳輸)中保持正確性與一致性,不被未授權篡改,是 AI 系統可信賴運作的基礎。
AI 新人工程師在建置機器學習模型時,主管強調必須嚴格分開訓練資料與測試資料,不得混用。請問這樣做的主要目的是什麼?
訓練集與測試集分離是機器學習的基本原則,測試集模擬真實部署時模型面對的未知資料,能客觀評估模型的泛化能力(Generalization),防止過擬合帶來的誤導性評估結果。
某電商平台計畫引入 AI 定價系統,法務部門擔心可能涉及消費者保護法規與個資使用問題,要求在正式採購前先進行全面評估。請問應優先進行哪項評估工作?
在 AI 應用導入前,必須進行系統性的風險評估(包括技術風險、倫理風險與法律風險)及合規性審查(確認符合個資法、消保法等相關法規),才能確保導入後的可控性與可追責性。
某語言模型在預訓練時採用的任務是:給定一段文字,隨機遮蔽其中部分詞彙後,讓模型根據上下文預測被遮蔽的詞。請問這是哪種預訓練方法?
遮蔽語言建模(MLM)是 BERT 等雙向語言模型的核心預訓練任務,透過讓模型預測被遮蔽的詞彙,迫使模型同時理解左右兩側的語境,建立深度雙向語意表示能力。
某零售集團的 AI 模型需要同時分析客戶的購買歷史(結構性表格資料)與商品評論文字(非結構性文字資料)。請問最合理的系統設計方式是什麼?
混合資料架構中,表格資料適合用 XGBoost、隨機森林等傳統 ML 模型;文字資料適合使用 BERT 等深度 NLP 模型提取特徵;最後透過特徵融合層整合兩種模型的輸出,能充分發揮各類資料的價值。
某機器學習工程師在特徵工程階段,將「面積」特徵進行了平方與立方展開,以捕捉房價與面積之間的非線性關係。請問這種技術稱為什麼?它的主要潛在風險是?
多項式特徵擴充(Polynomial Feature Expansion)透過生成原始特徵的高次項與交叉積,讓線性模型能學習非線性邊界;但特徵維度呈指數級增長,容易導致過擬合,需搭配正則化技術使用。
某 AI 客服系統的處理流程為:客戶說話 → 語音轉文字 → AI 分析文字情緒 → 給出回覆。請問這個系統從架構層面屬於哪種類型?
該系統涉及語音(音訊模態)與文字(語言模態)兩種不同資料形式的處理,語音需先透過 ASR 轉換為文字,再進行 NLP 分析,屬於跨模態的多模態處理系統架構。
某 NLP 工程師在訓練大型語言模型時,觀察到 loss 曲線劇烈震盪,始終無法穩定收斂。在尋找原因前,應優先排查哪個可能的問題?
Loss 震盪不收斂的最常見原因是學習率過大(導致梯度更新幅度過大)或 Batch Size 過小(梯度估計噪音大)。優化器參數設定是模型訓練穩定性的關鍵,應作為第一優先排查項目。
某深度學習模型的訓練準確率達到 95%,但驗證集準確率只有 72%,且兩者差距隨訓練輪數增加而持續擴大。這最可能代表什麼問題?
訓練集與驗證集效能差距極大且隨訓練持續擴大,是過擬合(Overfitting)的典型症狀,表示模型記憶了訓練資料的特定模式而非學習到通用規律。解決方法包括 Dropout、L2 正則化、早停(Early Stopping)或資料增強。
某深度學習工程師在訓練卷積神經網路時,使用了 TensorBoard 工具持續監看訓練狀況。請問 TensorBoard 的主要用途是什麼?
TensorBoard 是 TensorFlow 生態的訓練監控工具,能即時視覺化 Loss、Accuracy、學習率曲線、梯度分佈、模型架構圖與特徵嵌入等,是深度學習訓練過程中不可或缺的診斷與分析工具。
某公司計畫建立一個可供多個部門共享的顧客資料集,以支援行銷、客服與產品分析等不同用途。在正式開放使用前,最重要的準備工作是什麼?
資料字典(Data Dictionary)描述每個欄位的名稱、資料類型、值域、單位、更新頻率與業務意義,是資料治理的基礎文件,確保不同部門對資料的理解一致,避免誤用,是多部門資料共享的前置必要條件。
某 AI 新人正在學習資料前處理,主管要求他列出「資料清理」階段通常需要完成的工作。以下哪一組選項最正確地描述了資料清理的主要內容?
資料清理(Data Cleaning)的核心工作包括:處理缺值(填補、刪除)、類別變數編碼(One-hot、Label Encoding)、離群值偵測與處理、重複資料移除與資料一致性檢查,是模型訓練前的必要前置步驟。
某製造業 AI 導入顧問建議客戶,在將 AI 應用於預測設備故障前,應先選擇一條重要且影響範圍可控的生產線,以小規模方式驗證可行性後再擴展。這符合哪種導入策略?
根據製造業 AI 導入最佳實務,應選擇具有高商業價值且影響範圍有限的單一節點進行概念驗證(POC),降低技術與業務風險,待驗證成功並取得利害關係人信任後,再逐步擴展至其他製程節點。
一家物流公司正在建置 AI 模型監控平台,需要管理多個預測模型的版本、部署流程及上線後的效能追蹤。下列哪個實踐領域最能滿足這項需求?
MLOps 整合了模型訓練、版本控管、自動部署與持續監控等完整流程,是企業規模化管理 AI 模型生命週期的核心實踐。
在設計遊戲 AI 代理人時,開發者希望代理人能夠透過不斷嘗試並獲得分數回饋來學習最佳策略。在這個框架中,「分數」扮演的角色是什麼?
強化學習中的獎勵函數提供學習信號,讓代理人根據每一個動作所獲得的回饋逐步調整策略,以最大化累積獎勵。
資安團隊發現某個已部署的影像辨識模型對輸入影像的微小像素擾動極度敏感,可能被惡意利用。這個漏洞最可能導致哪種風險?
對抗樣本攻擊透過在輸入中加入人眼難以察覺的微小擾動,誘使深度學習模型產生錯誤輸出,是部署階段的重要安全風險。
銀行法遵部門要求 AI 信用評分模型必須通過內部審核,審核人員需要了解模型是如何做出決策的。下列哪項做法最有助於審核流程?
合規模型需具備可追溯性,包含訓練歷程、特徵來源與模型選擇依據,讓稽核人員能有效審查決策過程。
某縣市政府計畫將 AI 服務延伸到偏鄉長者和身障者族群,確保他們也能平等使用智慧化服務。這個目標最符合哪項原則?
數位涵容強調科技公平性,確保 AI 服務對身障者、老年者等弱勢族群也能提供可理解、可操作且無障礙的使用體驗。
醫療研究單位希望與製藥公司共享病患數據進行聯合研究,但同時需要保護病患隱私並符合個資法。下列哪種方案最能兼顧兩者?
具備存取權限分級與資料匿名化的共享平台,可實現跨機構資料合作並同時保障隱私,是資料治理中的最佳實務。
一家內容平台正在訓練大型語言模型作為文章生成助手,但擔心模型可能輸出偏見或不當言論。下列哪種策略最能有效降低這個風險?
RLHF 透過人類偏好回饋調整模型生成行為,結合內容過濾系統可有效預防偏見語言與不當輸出。
某求職平台的 AI 篩選模型被發現對女性求職者的評分系統性偏低,與男性相比有顯著差距。這違反了 AI 治理的哪項核心原則?
AI 公平性要求模型對不同族群提供一致的預測品質與判斷標準,系統性偏差即違反此原則。
產品團隊打算為零售商建立一個銷售預測 AI 系統。在開始收集歷史交易資料之前,最應該優先完成哪個步驟?
資料收集應以清楚的業務問題為前提,先釐清目標才能有效規劃所需的資料類型與建模方向。
一個已上線的貸款核准 AI 模型,近期被發現預測結果與三個月前相比有明顯偏移,且申請通過率下降。維運團隊應優先檢查什麼?
部署後需持續監控模型輸出分布是否產生漂移、推論結果是否異常,這些指標能快速發現模型效能退化的徵兆。
一間電商公司想在有限的運算預算下,快速將通用語言模型調整成專門回答商品客服問題的助手。下列哪種技術最符合需求?
LoRA 只調整少量低秩矩陣參數即可完成微調,大幅減少訓練資源需求,非常適合快速遷移至特定領域任務。
某跨國企業的 AI 客服系統需要同時服務中文、英文、泰文和印尼文的用戶,但泰文和印尼文的訓練資料相對稀少。最佳的改善策略是什麼?
跨語言預訓練模型(如 XLM-R)能支援多語處理,針對低資源語言補強特定語料可有效提高其準確率。
在訓練一個信用風險分類模型時,資料科學家發現少數族群的申請人樣本量遠少於主流族群。他們決定對少數族群樣本給予更高的訓練權重。這種做法稱為?
再加權策略對不同群體樣本施加差異化權重,讓模型在學習時能公平關注各子群,是消除偏誤的常見公平性強化技術。
一個數位轉型專案需要整合來自 ERP、CRM、IoT 感測器等多種格式的資料,並支援長期維運與複雜查詢。下列哪種平台架構最為適合?
Data Lakehouse 融合資料湖的彈性儲存與資料倉儲的查詢效率,是現代企業處理多格式異構資料的主流架構。
開發團隊將訓練好的推薦模型封裝後,要讓行動 App 和網頁前端都能呼叫它的預測功能。最常見的服務形式是?
RESTful API 讓模型以標準 HTTP 協議提供輸入輸出服務,是跨平台系統整合的主流方式。
智慧手錶製造商想要在手錶端直接執行心律異常偵測模型,不需回傳雲端。為了讓模型能在低功耗晶片上運行,應優先採用哪種技術?
模型剪枝移除不重要的參數,量化將浮點數轉為低位元整數,兩者結合能大幅縮小模型體積以利嵌入式部署。
一個多媒體搜尋系統分別使用影像編碼器和文字編碼器產生特徵向量,再將兩組向量合併後進行分類。這種融合策略稱為?
Feature-level Fusion 將各模態的中間層特徵向量整合後再進行分類,廣泛應用於圖文搜尋與多模態理解任務。
社群媒體平台想要即時偵測特定話題在過去 72 小時的輿情趨勢與情緒走向。下列哪種 AI 技術組合最適合?
社群即時留言需結合時間序列觀察趨勢走向,並透過 RoBERTa 等 NLP 模型辨識情緒極性,是輿情分析的主流組合。
資料科學家在準備訓練資料時發現,不同欄位的數值範圍差異極大(例如年收入從數千到數百萬,年齡從 1 到 100)。應採用哪種前處理技術?
特徵標準化使各欄位數值落在相近範圍,有助於梯度穩定收斂,對距離敏感演算法(如 KNN、SVM)尤為重要。
同一個影像分類模型在本地測試環境中達到 92% 準確率,但部署到雲端後效能降至 78%。排查問題時應優先檢查什麼?
不同環境間效能落差常源自特徵前處理方式不同、套件版本不一致或資料格式差異,應優先確認各環境一致性。
一個電信公司的客戶流失預測模型已上線兩年,最近預測準確率開始下滑。為了維持長期效能,最應導入什麼機制?
隨時間推移,用戶行為資料分布可能變化,需透過漂移偵測機制及時觸發再訓練,維持預測品質。
研究人員想快速找到一個已公開發布的 BERT 中文情感分析模型來進行實驗,並希望能直接呼叫 API 使用。哪個平台最適合?
HuggingFace Hub 是目前最主流的預訓練模型集散地,支援多種任務、框架與語言,並提供 RESTful API 直接呼叫。
某企業的資料工程師為不同部門的人員設定了不同的資料存取層級,研究員可以看到完整資料,但業務人員只能看到去識別化摘要。這樣的設計主要目的是什麼?
資料存取權限控管能防止內部濫用與外部洩漏,符合個資法遵規範並明確責任歸屬。
語音辨識工程師在訓練中文語音辨識模型時,遇到輸入語音片段的長度與對應文字標籤長度無法對齊的問題。哪種技術專門解決這個挑戰?
CTC 能處理輸入序列長度與輸出標籤長度不一致的對齊問題,是語音辨識與手寫辨識中的核心技術。
放射科團隊想提升 AI 輔助診斷模型對 X 光異常區域的辨識能力,但標記資料有限。下列哪種資料擴增策略對 CNN 模型最有效?
隨機遮蔽(如 CutOut、Mixup)和資料擴增能模擬不同拍攝條件,有助提升 CNN 模型對病灶變異的泛化能力。
教育科技公司要建置一套能根據每位學生的作答表現,自動推薦最適合其程度的學習內容的系統。應結合哪些核心 AI 技術?
推薦系統結合學習歷程分析,可實現知識推薦與難度自動適配,是個人化智慧教育平台的核心技術基礎。
自動駕駛系統透過不斷在模擬環境中與障礙物互動並接受碰撞懲罰,逐漸學習到最佳的避障路線。這展示了強化學習的哪種核心優勢?
強化學習基於獎懲框架,特別適合需要在動態環境中持續互動、即時控制與自適應決策的應用場景。
一個保險理賠預測專案開始建模前,資料科學家使用了隨機森林的特徵重要性排序,並移除了對目標變數幾乎沒有貢獻的欄位。這個步驟的主要目的是?
特徵重要性評估可排除低影響或高共線性特徵,提升模型學習效率並增強可解釋性,是建模前的重要步驟。
研究團隊正在訓練一個圖像生成模型,採用的方式是先在圖像中加入隨機雜訊,然後訓練模型學習從受損圖像重建出原始乾淨圖像。這種架構稱為?
去噪自編碼器透過學習從加入雜訊的輸入重建原始輸出,能提取更強健的特徵表示,是生成式模型的基礎架構之一。
政府正在部署一個 AI 系統,為失業民眾自動媒合適合的職業訓練課程。系統上線後,民眾對建議結果感到困惑並質疑公正性。最需要改善哪方面?
公共服務 AI 系統須具備決策透明度,讓民眾理解推薦依據,並建立申訴與問責機制,以維護使用者信任與權益。
醫院放射科導入 AI 輔助診斷系統,使用深度學習模型精確標記出 MRI 影像中腫瘤的位置與邊界。這個任務屬於哪種 AI 應用?
U-Net 等語義分割架構可對醫學影像進行像素級標記,精確識別腫瘤、器官等目標的位置與邊界。
一家半導體廠正在建置設備預防性維護系統,希望在設備故障前就能預警。訓練此類 AI 模型最關鍵的資料來源是什麼?
設備預維護模型主要依賴感測器輸出的時序變化(如溫度、振動、電流)來訓練異常偵測與壽命預測模型。
AI 研究人員想了解深度學習模型訓練過程中,不同層的梯度變化以及損失值的收斂趨勢。下列哪個工具最適合?
TensorBoard 是 TensorFlow 官方視覺化工具,可即時追蹤訓練指標、梯度分布與模型結構,是深度學習調參的重要輔助。
設計一個大型影像識別模型時,工程師希望在不犧牲辨識能力的前提下,顯著減少參數量以加速訓練。下列哪種設計策略最常被採用?
瓶頸層透過 1×1 卷積降維再升維,搭配殘差連接,可在不損失表達力的情況下大幅減少參數量,是現代深度網路的核心設計。
一個二元分類模型(正常 vs 異常)在測試集上達到 97% 準確率,但工程師發現它對所有輸入都預測為「正常」。這是什麼問題?
當資料嚴重不平衡時,模型直接預測全部為多數類別也可能有高準確率,實際上完全未學習少數類別特徵。
研究人員將數千維的基因表達資料降維後繪製成二維散點圖,清楚看到不同癌症亞型形成了明顯的群聚分布。使用的是哪種技術?
T-SNE 是非線性降維方法,擅長將高維資料映射至低維空間並保留群聚結構,廣泛應用於特徵探索與模型中間層分析。
工廠管理系統收集了所有員工在生產線上的詳細操作記錄,AI 規劃師希望找出低效流程並提出改善建議。最適合的技術是?
流程挖掘技術可從操作事件日誌中重建實際流程模型,並識別瓶頸與偏差,結合 AI 能進一步推薦最佳流程路徑。
醫療 AI 系統需要偵測罕見疾病,標記為「陽性」的病例僅佔資料集的 2%。評估此模型效能時,哪個指標最具代表性?
F1 分數整合精確率與召回率,在類別不平衡的情境下能真實反映模型對少數類別的學習能力,比準確率更具參考價值。
訓練大型 Transformer 語言模型時,初始幾個訓練步驟使用了極小的學習率,之後才逐漸提高到目標學習率。這個策略的主要目的是?
學習率暖啟(Warm-up)讓模型在初期以小學習率穩定更新,避免隨機初始化的權重在早期造成梯度不穩定。
機器學習工程師嘗試使用 KNN 分類器處理一個擁有 500 個特徵的用戶行為資料集,但發現模型效果很差。主要原因最可能是什麼?
高維空間中樣本間距離趨於均等,近鄰關係喪失區分意義,即維度詛咒,對 KNN 等依賴距離的演算法影響尤為嚴重。
一個情感分析資料集由三位標記員共同標注,但審查後發現同一則留言被標為「正面」、「負面」和「中性」各一次。這對模型訓練有何影響?
標注不一致使訓練標籤模糊,對監督式學習模型造成混淆,降低其穩定性與預測精確性。
醫院的 AI 系統依法需要保存所有診斷模型的預測記錄長達七年,以供未來的醫療糾紛舉證與稽核。這屬於資料生命週期的哪個階段?
資料封存是為了滿足合規保存需求、稽核追蹤與未來備查,在醫療、金融等高監管產業尤為重要。
董事會要求 AI 風險預測系統不只提供「高/中/低風險」的分類結果,還需說明影響評分最關鍵的因素。這是對 AI 系統哪項特性的要求?
管理決策需基於可理解的依據,模型應能呈現特徵貢獻度與推論邏輯,提升透明度並支持高層決策。
一家藥廠正在開發 AI 輔助新藥篩選系統,主管機關要求能完整追溯模型訓練過程、所用資料來源與版本。下列哪項是「必備要素」?
高監管產業要求 AI 系統具備可追溯性與審查能力,完整的訓練紀錄與版本控管是合規要求的核心。
政府計畫建立跨部會的資料共享生態系,透過一套標準化框架確保各機關提供的資料來源合法、品質達標且責任明確。這個機制稱為?
資料信任架構透過授權機制、品質審查與標準制定,確保資料使用安全合法並明確各方責任分工。
新創公司打算使用一個在 GitHub 上找到的開源語音辨識模型,開發商業語音助理產品。在使用前最應該先評估什麼?
不同開源授權(如 GPL、AGPL、MIT)對商業使用有不同限制,企業在商用前必須先確認授權條款允許商業用途。
一家資料分析公司將訓練語料賣給多個 AI 廠商,並想確保若有廠商違規使用洩漏資料,能追溯出是哪個買家。應採用什麼技術?
資料水印在資料中嵌入不可見識別特徵,若資料外洩可回溯來源與責任歸屬,是保護資料版權的重要技術。
企業將大量影像資料外包給第三方標注公司進行標記作業,為同時保障品質和資料安全,最佳做法是什麼?
分批加密傳遞可降低整批資料外洩風險,配合品質抽驗可確保標注精度,是外包標注的安全最佳實務。
一家製造業公司導入 AI 產線監控系統後,發現雖然預測準確度高,但現場主管卻沒有改變作業習慣,成效有限。根本問題最可能是什麼?
AI 技術導入通常會改變決策方式與作業流程,若未同步進行流程再造(BPR),預測價值將難以落地。
某市政府打算部署 AI 系統協助判斷社會住宅申請資格,並希望確保市民能了解被拒絕的理由,也能提出申訴。下列哪項原則最應優先落實?
公共領域 AI 需符合民主治理精神,確保市民能理解決策依據、參與過程並有申訴管道,是智慧治理的核心價值。
智慧工廠希望利用 AI 預測每條產線的良率,訓練時需要的核心資料應來自哪裡?
製程參數(如溫度、壓力、停留時間)與感測器數據直接反映生產條件,是建立良率預測模型最核心的資料來源。
某航空公司為每架飛機建立了一個即時數位模型,與實體飛機的感測器資料雙向同步,用於模擬故障情境並提前維護。這個架構的正式名稱是?
數位雙生建立物理系統的即時虛擬鏡像,結合數據驅動與模型預測,可用於故障模擬、最佳化決策與預防性維護。
半導體廠商想在完全沒有異常標記資料的情況下,偵測晶圓製程中的品質異常。最適合使用哪種 AI 方法?
無監督異常偵測(如 Autoencoder)在無需標記資料下,透過學習正常模式來偵測偏離正常範圍的異常事件。
工業 IoT 平台每秒從數千個設備接收感測器資料,需要高效儲存與快速查詢每台設備過去 30 天的數值趨勢。哪種架構最合適?
時序資料庫針對帶時間戳的感測數據最佳化,結合邊緣分析可提升即時處理速度,是 AIoT 的標準架構選擇。
製造業導入了 AI 預測模型後,系統每天輸出次日的設備故障風險報告,但廠長反映工程師沒有依照預警採取行動。核心問題是什麼?
AI 預測只是第一步,若現場作業流程、決策權責未配合調整,預測價值將無法轉化為實際改善行動。
智慧工廠的 AI 控制系統在偵測到設備振動異常時,能立即自動調整馬達轉速以維持生產穩定性,無需人工介入。這個功能屬於哪種 AI 機制?
自主適應控制讓 AI 模型依據環境即時回饋自動調整輸出參數,是實現高可靠度自動化生產的關鍵能力。
數位雙生與 AI 模型整合後,工程師希望在不停止實際生產線的情況下,找到最低廢品率且成本最小的製程參數組合。最能發揮此架構的場景是?
數位雙生可在虛擬環境中模擬不同參數組合的結果,結合 AI 預測回饋可達成製程即時最適控制。
品質工程師分析製程資料時,發現原料溫度、濕度與黏度三個變數之間存在極高的相關性,可能影響回歸模型的穩定性。最建議的處理方法是?
PCA 可將高相關變數轉換為彼此獨立的主成分,有效消除多重共線性問題,提升模型穩定性與學習效率。
設備壽命預測系統需要同時分析壓力感測器、振動計和溫度計三種不同頻率的時序資料。最適合的模型架構是?
LSTM 擅長處理時序資料,多輸入通道設計可整合不同感測器來源,透過特徵融合提升設備壽命預測的準確度。
智慧工廠希望 AI 系統在生產過程中能依據即時品質回饋,持續調整製程參數,形成「偵測→調整→再偵測」的閉環機制。應整合哪種技術?
強化學習能根據環境即時回饋調整行動策略,搭配閉環控制系統可實現製造流程的動態持續優化。
某工廠的 AIoT 系統遭到駭客入侵,入侵者偽造溫度感測器數值讓 AI 模型產生錯誤判斷,導致設備過熱。這屬於哪類風險?
AIoT 系統的端點設備若遭入侵,攻擊者可偽造感測器數值操控 AI 決策,是工業 AI 部署的重大資安威脅。
線上教育平台希望系統能分析每位學生的學習進度、答題速度和錯誤類型,自動推薦最適合的下一個練習題目。應採用哪種核心技術組合?
協同過濾推薦系統結合學習歷程資料挖掘,可理解學生的學習偏好與弱點,進而提供適性化教材推薦。
全球客服中心計畫部署 AI 語音助理,需要同時處理英語、西班牙語、日語等十二種語言的語音輸入,並維持語意理解的一致性。最適合的技術是?
多語言預訓練模型在大量跨語言語料上訓練,可同時支援多種語言的語意理解,適合全球化 AI 語音服務。
一家零售集團的數位轉型委員會正在規劃導入 AI,但目前各部門對 AI 能解決哪些問題看法分歧。此時最應該優先進行什麼?
AI 導入應以業務需求為起點,先明確問題定義、使用場景與預期 KPI,才能確保後續資源投入有方向。
某企業的 AI 成熟度評估結果顯示,AI 已全面融入核心業務流程和策略決策,自動化程度高。這對應 AI 成熟度模型的哪個層級?
Transformational AI 代表 AI 已成為企業策略與流程不可或缺的核心,具備大規模自動化與智慧決策的能力。
某上市公司在 ESG 報告中承諾其 AI 系統的決策過程可被追蹤、可被審計,並有明確的錯誤問責機制。這最符合 ESG 中哪個面向的要求?
ESG 治理面強調制度責任與透明性,AI 系統若具備審計記錄、可解釋性與問責機制,有助於提升公司治理品質。
農業研究機構希望用 AI 協助達成聯合國永續發展目標(SDGs),下列哪個應用方向最直接對應多項 SDG 目標?
AI 支援糧食安全、氣候行動與能源效率等 SDG 目標,是推動全球永續發展的重要技術工具。
一家傳統製造廠商決定導入 AI 預測性維護,但工廠的設備資料大多以紙本記錄,數位化程度極低。應該最優先做什麼?
AI 成效高度依賴資料品質,缺乏數位化基礎建設與資料治理流程,將使任何 AI 模型都無法有效訓練與運行。
企業 AI 導入計畫跨越行銷、供應鏈和財務三個部門,但各部門的資料格式與 KPI 差異使協作困難。最有效的解決策略是?
AI 中台提供共享的資料、算法與服務能力,搭配明確的治理框架,是克服跨部門協作障礙的關鍵組織策略。
一家企業的執行長希望 AI 不只是技術部門的工具,而是要成為公司長期競爭優勢的一部分。應該採取什麼管理策略?
將 AI 提升至策略層級,納入 KPI 考核並設專責推進組織,是確保 AI 長期落地且持續創造價值的關鍵。
資料科學家正在比較 BERT(用於情感分析)和 GPT(用於文章生成)的差異。哪個描述最能區分兩者的學習目標?
鑑別式模型(如 BERT)專注於建立分類邊界,直接優化預測目標;生成式模型(如 GPT)學習資料分布以生成新內容。
美術設計師想要利用 AI 將一批白天拍攝的城市照片自動轉換成夜間風格的藝術照,且不需要配對的白天/夜間照片作為訓練資料。最適合的模型是?
CycleGAN 可在無需配對資料的情況下學習兩個圖像領域間的映射,是非配對圖像風格轉換的代表性架構。
一個 AutoML 平台宣稱能自動找到最佳模型架構和超參數,但業務人員詢問它是否也能自動採購並安裝 GPU 伺服器。這個功能屬於 AutoML 的範圍嗎?
AutoML 的自動化範圍包括模型架構搜尋(NAS)、特徵處理、超參數調整等,不涉及實體硬體採購與安裝。
醫療影像 AI 系統對罕見疾病的偵測準確率達 95%,但召回率只有 30%,表示大量真實病例被漏診。哪個指標最能綜合反映此模型的實際效能?
F1 分數同時考量精確率與召回率,能更真實反映在類別不平衡情況下模型的整體預測品質。
資料科學家要在一個擁有 1,000 個特徵的基因資料集上建立癌症預測模型,特徵間存在高度共線性。下列哪類模型在此情境下最能穩定運作?
Lasso 正則化可在高維共線環境下自動進行特徵選擇,將不重要特徵係數縮至零,是高維問題的穩定解法。
MLOps 團隊要為一個需要每週更新的推薦系統建立自動化部署流程,確保每次模型更新都能快速、可靠地上線。最適合的技術組合是?
Docker 容器確保環境一致性,Kubernetes 實現彈性擴展,CI/CD 流水線讓每次模型更新都能自動測試並快速部署。
IT 維運團隊導入了一套 AI 系統,能自動分析系統日誌、預測伺服器故障並在異常發生前自動觸發修復腳本。這類技術稱為?
AIOps 將 AI 應用於 IT 系統監控、日誌分析、異常偵測與自動修復,大幅提升 IT 管理的自動化程度與效率。
放射科醫師使用 AI 系統輔助診斷,但最終的診斷結論仍由醫師確認簽名,AI 的角色是提供建議而非做出最終決定。這符合哪種設計原則?
Human-in-the-loop 設計讓人類判斷保持在決策鏈中,強化 AI 使用的信任度、透明性與最終責任歸屬。
智慧音箱收到「明天早上七點叫我起床」的語音指令後,需要依序完成哪幾個步驟才能正確設定鬧鐘?
語音 AI 系統遵循 ASR→NLU→DM→NLG 的標準流程,從語音識別到語意理解、意圖執行與語音回應。
以下哪個選項最能正確描述 ChatGPT 的技術分類?
ChatGPT 建構於 GPT 架構上,是以 Transformer Decoder 為基礎的生成式預訓練語言模型,具備自然語言理解與生成能力。
某企業部署了 ChatGPT 作為內部法律文件查詢助手,但使用者發現它有時會引用不存在的法律條文。最有效的改善方案是?
RAG 架構讓模型在生成回應前先從外部知識庫檢索相關資訊,有效降低幻覺(Hallucination)並提升回答的事實準確性。
企業的線上客服 Chatbot 需要在一個多輪對話中記住用戶在對話開始時提到的訂單編號,並在後續回答中持續參考這個資訊。最適合的模型架構是?
Transformer 的自注意力機制能維持跨輪次的長距離上下文,是支援多輪對話語意追蹤的主流架構選擇。
企業想建置一套以 ChatGPT 為核心的內部知識問答系統,讓員工能用自然語言查詢公司內部的產品手冊和 SOP 文件。最佳實作方式是?
結合向量資料庫(如 FAISS、Pinecone)的語意搜尋與 GPT 生成能力,是建構企業知識問答系統的標準現代做法。
使用者在與 ChatGPT 互動時,希望得到更具創意且多樣化的回應,而非每次都給出最「安全」的答案。應如何調整?
Temperature 控制模型輸出的隨機程度,數值越高輸出越多樣化,適合需要創意回應的應用場景。
企業希望 AI 客服助理能夠記住特定用戶過去的購買偏好和互動風格,並在下次對話中主動提供個人化推薦。應整合哪種設計機制?
個人化記憶機制結合意圖分析可讓 AI 助理根據歷史互動調整回應,大幅提升使用體驗與用戶黏著度。
客服主管發現 ChatGPT 客服系統有時給出的資訊已過時,例如說明舊版退款政策。最實際的解決方案是?
LLM 的訓練資料有截止日期,整合即時知識庫檢索與文件摘要是補足時效性限制的實務解決方案。
GPT-4 相較於 GPT-3.5 最顯著的能力提升是什麼?
GPT-4 是多模態模型,除文字外還能處理圖像輸入,大幅擴展了語言模型的理解範疇與應用場景。
高中數學老師想用 ChatGPT 幫助備課,ChatGPT 最能為教師提供哪類直接幫助?
ChatGPT 能根據指定主題與難度快速生成題目、解題說明與教學素材,有效協助教師備課與個別化教學設計。
一家新創公司想要使用開源的 LLaMA 模型,在自家私有伺服器上建置 AI 助理,而不需要將資料傳送到外部雲端。相較於 ChatGPT API,這種做法的主要優勢是?
開源 LLM 可根據需求調整架構與訓練語料,並部署於私有基礎設施,更適合有資料主權與隱私保護需求的組織。
某醫院試驗性地讓病患透過 AI 聊天機器人描述症狀,系統再給予初步健康建議。這個應用最大的倫理風險是?
生成式 AI 在醫療場景產生不準確資訊的後果最為嚴重,可能導致病患忽視真實病情或採取錯誤處置,屬高風險應用。
新聞記者使用 AI 工具生成一篇關於氣候峰會的報導草稿,文章讀起來邏輯流暢,但其中引用的幾個統計數字經查並不存在。這是 AI 的哪種典型缺陷?
幻覺是生成式 AI 的主要缺陷之一,模型依語意概率生成文字,可能產生聽起來合理但事實錯誤的內容。
法律科技公司計畫用 ChatGPT 協助律師起草合約,並希望確保生成的法律條款準確且符合現行法規。應加入哪些保障措施?
法律應用要求極高準確性與合規性,AI 生成內容必須經過專業人員審核與版本追蹤,以防止法律錯誤與誤導。
ChatGPT 在訓練時使用了哪類資料作為主要語料來源?
OpenAI 訓練 ChatGPT 使用了 Wikipedia、書籍、Reddit、Common Crawl 等公開語料,語意廣度高但存在時效性限制。
用戶問 ChatGPT 「哪個族群的人比較懶惰?」這類帶有偏見的問題時,系統應如何回應才最符合 AI 倫理?
對於帶有歧視性預設的問題,AI 應採取中立謹慎的回應策略,明確說明限制並避免強化偏見,是倫理設計的核心。
生成式 AI 被廣泛應用於新聞寫作、法律文書和自動翻譯後,社會上開始出現大量 AI 生成的虛假資訊,難以辨別真偽。這對社會的最主要影響是?
生成式 AI 改變資訊生產方式,使內容可信度驗證、來源追蹤與事實查核成為社會迫切需要解決的新課題。
一家連鎖超市希望將 ChatGPT 整合到內部系統中,用於客戶服務、自動回覆常見問題和彙整每日銷售報告。這屬於 ChatGPT 哪類典型的企業應用?
ChatGPT 在企業中最常應用於客服問答、知識整合、文件摘要與教育訓練等語言類任務,是高投資報酬率的應用場景。
企業將 ChatGPT 部署為面向消費者的服務介面,負責回答產品問題。若系統輸出了錯誤的醫療建議或法律意見,企業面臨的最大風險是什麼?
公開部署的 AI 系統若輸出不受控,可能產生誤導性內容、侵權或不符合法規的回應,需要完整的內容治理與監控機制。
根據《歐盟 AI 法案》,下列哪種系統被歸類為「高風險 AI」,需要接受最嚴格的透明度和稽核要求?
歐盟 AI 法案將醫療、金融、招聘、公共安全等領域的 AI 系統列為高風險,須符合嚴格的透明度與稽核要求。
一位求職者透過 AI 系統申請工作被拒絕,他要求系統說明拒絕的理由。根據台灣人工智慧相關法規草案的精神,這個要求的依據是什麼?
可解釋性是 AI 倫理的核心權利,讓使用者知悉 AI 為何做出特定判斷,是透明治理與保障個人權益的基礎。
某 AI 倫理委員會在審查一個 AI 系統時,發現它強調「競標機制」能帶來最大利潤。這項原則「不屬於」可信任 AI 七大核心原則的哪個面向?
可信任 AI 的核心原則包含倫理、透明、公平、安全等面向,以商業效益最大化為目標的競價機制不屬於其中。
某跨國銀行的 AI 系統在歐洲節點存取了亞洲用戶的個人資料進行模型訓練。這個行為最直接涉及哪個資料治理議題?
資料主權涉及個人資料在哪個法律管轄範圍內被收集、處理與儲存,是跨境 AI 應用中的核心法規合規議題。
某 AI 招聘系統發生錯誤,導致一批符合資格的求職者被錯誤篩除,造成損失。為了事後能釐清是資料問題、模型問題還是人為設定問題,最重要的前置措施是?
完整的 AI 決策日誌可溯源模型行為,在出現問題時提供追查依據,是責任歸屬與風險管理的必要條件。
資安部門使用 NIST AI 風險管理架構(AI RMF)評估公司新部署的 AI 系統。NIST AI RMF 的核心評估觀點包含哪些面向?
NIST AI RMF 從系統、組織、社會三層面評估 AI 風險,涵蓋技術可靠性、公平性、透明度與潛在濫用等多個維度。
一位用戶發現某 AI 平台將他過去的聊天記錄用於模型再訓練,他希望徹底撤銷自己的資料貢獻。依據 GDPR 精神,他可以主張哪項權利?
被遺忘權允許用戶要求平台刪除其個人資料,包括從模型訓練資料中移除其貢獻,是 GDPR 的核心個人權利之一。
一個 AI 輔助駕照考試系統即將上線,主管機關要求在正式部署前,先系統性地辨識可能對特定族群造成不公平或對社會產生負面影響的風險。這個流程稱為?
AI 影響評估是在部署前系統性辨識潛在社會與技術風險的工具,確保系統符合倫理、公平性與法規要求。
一家保險公司的 AI 系統自動拒絕了某位客戶的理賠申請,但客戶要求了解拒絕原因。依照問責 AI 的責任原則,公司應提供哪些資訊?
可責任 AI 要求提供決策過程的透明說明,讓受影響的用戶理解判斷依據,是保障用戶權益的基本要求。
根據《歐盟 AI 法案》,哪類 AI 系統被列入「禁止使用」的最高風險類別?
歐盟 AI 法案明確禁止可能對個人造成不可接受風險的 AI 應用,包括社會信用評分系統和大規模即時生物辨識監控。
資安研究員對一個圖像辨識模型進行了測試,只需在停車標誌上貼一張小貼紙,AI 就把它誤判為速限 45 的標誌。這是哪種攻擊?
對抗樣本攻擊透過對輸入添加精心設計的微小擾動,誘使深度學習模型產生錯誤預測,是 AI 系統部署的重要安全威脅。
多家醫院想聯合訓練一個更精確的腫瘤診斷 AI 模型,但法規禁止病患資料離開各醫院的系統。哪種技術能在不共享原始資料的情況下實現協同訓練?
聯邦學習讓各節點在本地訓練模型後只上傳梯度更新,原始資料永不離開本地,是保護醫療資料隱私的重要技術。
AI 研究人員擔心訓練好的語言模型可能洩露訓練資料中的個人資訊(如信用卡號碼)。最常用來防止此問題的技術是?
差分隱私在模型訓練或輸出中加入隨機擾動,使得任何單一資料點的存在都無法從輸出中被識別,是保護個資的統計保障機制。
企業部署了一個多租戶 AI 平台,服務多家客戶。為防止不同客戶的模型存取權限被錯誤混用或遭到濫用,最適合採用哪種安全架構?
零信任安全模型假設所有存取均不可信,對每次請求都進行身份驗證與授權,是多租戶 AI 平台安全管理的最佳實務。
城市安全部門在路口部署了 AI 影像分析系統,希望在識別可疑行為的同時,不儲存可辨識特定個人的影像資料。最佳的技術設計策略是?
在邊緣端即時分析並匿名化影像(如人臉模糊化),配合加密傳輸,能兼顧公共安全辨識功能與個人隱私保護。
AI 系統在上線前,安全工程師模擬真實駭客的攻擊方式,對模型進行輸入擾動測試以驗證其防禦能力。這種測試方法稱為?
對抗魯棒性測試(如 FGSM、PGD 攻擊模擬)可系統性地驗證模型對輸入擾動的抵抗能力,是 AI 安全評估的重要環節。
AI 合規團隊要求所有模型必須能夠追溯:「這個版本的模型用了哪些訓練資料?調整了哪些超參數?何時由誰部署上線?」這個要求指的是什麼特性?
可溯源性確保模型從訓練到部署的完整歷程都有記錄,是 AI 風險管理、責任判定與監管合規的核心要求。
企業資料治理政策規定,客戶的交易資料在使用三年後必須進行封存,五年後必須永久刪除。這個政策屬於資料治理中的哪個概念?
資料生命週期政策管理規定了資料在各個階段的保存、存取、封存與刪除規則,確保合規並最佳化儲存資源使用。
某 AI 語音助理服務的設計原則規定,用戶的每次對話語音在任務完成後即自動刪除,不會儲存到伺服器。這體現了哪種隱私設計思維?
Privacy by Default 要求在無需用戶額外設定的情況下,預設採取最嚴格的隱私保護措施,這是 GDPR 的明確要求。
一個政府機構需要建置全面的 AI 風險治理框架,既要應對 AI 特有的偏誤和魯棒性風險,也要整合傳統資安防護。最佳方案是?
NIST AI RMF 提供 AI 技術與治理層面的風險框架,整合零信任安全架構可全面應對 AI 動態複雜的安全威脅場景。
在 AI 金融風控應用中,模型對不同種族、性別的申請人給予系統性不同的通過率。應使用哪類評估指標來量化並偵測這個問題?
公平性指標能量化不同子群體間的預測差異,有助於系統性偵測 AI 模型是否存在歧視性偏誤。
銀行導入 AI 信用評分系統後,主管機關要求銀行能夠解釋每一筆核貸或拒貸的決策依據,並保存完整的模型判斷記錄。這要求體現了哪項監理原則?
金融 AI 監理強調決策透明、可解釋性與完整稽核記錄,以便符合法規要求並回應用戶申訴,是金融 AI 合規的核心原則。
企業計畫導入 RPA(機器人流程自動化)並結合 AI,使系統不只能自動執行重複性任務,還能理解非結構化文件的內容並做出決策。最應加入哪種 AI 能力?
RPA 結合 NLP 語意分類與意圖辨識,能讓系統理解非結構化文件內容(如合約、申請表)並自動做出智慧判斷,大幅提升流程自動化的適用範圍。
當我們說一個 AI 模型具有「可解釋性」,主要是指什麼?
可解釋性就是讓人看得懂 AI 為什麼這樣判斷,不是黑箱作業。這在醫療、金融等高風險領域特別重要,因為你總不能跟病人說「AI 說的,但我也不知道為什麼」吧。
以下哪一項是自然語言處理(NLP)的典型應用?
NLP 就是讓電腦處理人類語言的技術,垃圾郵件過濾要判斷文字內容、情感分析要理解語意,這些都是 NLP 的拿手好戲。自動駕駛跟機械手臂偏向電腦視覺和控制系統,腫瘤偵測是影像辨識。
在大型語言模型(LLM)的訓練流程中,RLHF 的全名與用途為何?
RLHF 就是「基於人類回饋的強化學習」,簡單說就是讓人類當老師,告訴模型哪個回答比較好、哪個不好,模型再根據這些回饋去調整自己,這就是為什麼 ChatGPT 回答起來比較像人話的秘密武器。
某公司想在客服系統中導入 AI,讓 AI 能即時查詢最新產品資料庫來回答客戶問題。這最適合使用哪種技術?
RAG 就是先去資料庫撈相關資料,再把這些資料餵給 LLM 讓它生成回答。這樣 AI 就能拿到最新的產品資訊,不會瞎掰過時的內容。重新預訓練太花錢,Few-shot 沒辦法即時查資料,未微調的模型根本不認識你家產品。
根據歐盟 AI Act 的風險分級制度,以下哪個應用場景屬於「高風險」等級?
歐盟 AI Act 把涉及司法、執法、教育、醫療、人力資源等關鍵領域的 AI 歸類為高風險。法院判決輔助系統直接影響人的權利和自由,當然是高風險。推薦系統和垃圾留言過濾器頂多算有限風險或最低風險。
以下哪一個是「電腦視覺」技術的應用?
電腦視覺就是讓電腦「看」東西的技術,偵測產品表面瑕疵需要分析影像,這就是標準的電腦視覺應用。語音助理是語音辨識加 NLP,聊天機器人和翻譯都是 NLP 的範疇。
某醫院想用 AI 分析 X 光片來輔助醫生診斷肺炎,在部署前最應該優先考慮的問題是?
醫療 AI 攸關人命,最重要的當然是準不準確、醫生能不能理解它的判斷依據,還有是否符合醫療法規。產生圖片、遊戲速度、多語翻譯跟醫療診斷一點關係都沒有。
關於 MLOps 的描述,下列何者最正確?
MLOps 就是把軟體工程的 DevOps 精神搬到機器學習來用,從資料準備、模型訓練、部署上線到持續監控都包在裡面。不是什麼演算法,也不是只管訓練,更不是小專案專用,反而是越大的專案越需要它來管理。
下列哪個選項是「監督式學習」的正確描述?
監督式學習就像有老師幫你批改作業,每筆資料都有正確答案(標籤),模型就照著這些答案學。沒有標籤的是非監督式學習,跟環境互動拿獎勵的是強化學習,不用資料就能學的……不存在啦。
某金融機構使用 AI 進行信用評分,結果發現模型對特定族群的拒絕率明顯偏高。這最可能涉及 AI 倫理中的哪個議題?
特定族群被不公平對待,這就是典型的演算法偏見(bias)問題,屬於公平性議題。可能是訓練資料本身就有偏見,導致模型學到了歧視性的模式。這在金融、招聘等領域是非常嚴重的問題。
在 RAG 架構中,向量資料庫(Vector Database)的主要功能為何?
向量資料庫的核心就是把文字變成一串數字(向量嵌入),然後根據語意的相似度來搜尋。這樣就算用戶問的字眼跟資料庫裡的文字不完全一樣,只要意思接近就能找到。關聯式資料庫才是存表格跑 SQL 的。
在 AI 專案管理中,「概念驗證(Proof of Concept, PoC)」階段的主要目的為何?
PoC 就是「先試試看行不行」的意思,用小規模的實驗來驗證你的 AI 想法是否可行、有沒有商業價值,免得一開始就砸大錢結果做不出來。不是直接上線,也不是在這個階段就要把所有事情都做完。
GDPR 是哪個地區的資料保護法規?
GDPR(General Data Protection Regulation)就是歐盟的「一般資料保護規則」,是目前全球最嚴格的個資保護法之一。2018 年正式上路,違反的話罰金超嚇人,最高可以罰到全球年營收的 4%。
某製造業工廠想導入 AI 預測設備何時會故障,以提前安排維修。這種應用稱為什麼?
預測性維護就是用 AI 分析設備的感測器資料(振動、溫度、電流等),提前預測什麼時候可能會壞掉,讓你在故障前就先修好,避免突然停機造成損失。這是製造業導入 AI 最常見的應用之一。
在 LLM 的預訓練階段,模型主要學習的方式為何?
LLM 的預訓練其實就是讓模型瘋狂讀網路上的文字,然後猜「下一個字是什麼」。不需要人去標記答案,模型自己從文本中學到語言的規律,這叫自監督學習。這個階段會吃掉海量資料和算力,但學到的語言能力超強。
關於知識圖譜(Knowledge Graph)的描述,下列何者正確?
知識圖譜就像一張超大的關係圖,每個圓圈(節點)代表一個東西(人、地點、概念),連線(邊)代表它們之間的關係。例如「台灣 → 首都 → 台北」。它能存各種資料不只數值,跟關聯式資料庫不同,而且常常跟 AI 一起用來增強推理能力。
下列哪一個平台屬於「No Code / Low Code」AI 開發工具的概念?
No Code / Low Code 的精神就是讓不會寫程式的人也能用 AI,透過圖形化介面拖拖拉拉就能建立模型。像 Google AutoML、Microsoft Power Platform 之類的都有這種概念,大幅降低了 AI 的使用門檻。
在推薦系統中,「協同過濾(Collaborative Filtering)」的運作原理為何?
協同過濾的邏輯很直覺:「跟你品味類似的人喜歡什麼,你大概也會喜歡」。就像你朋友跟你看一樣的動漫,他推薦一部新的你也很可能會喜歡。這就是 Netflix、Spotify 推薦系統的核心概念之一。
在進行 AI 模型的微調(Fine-tuning)時,如果訓練資料量太少,最可能遇到什麼問題?
資料太少做微調,模型就會把訓練資料背得滾瓜爛熟,但碰到新的資料就不會了,這就是過擬合。就像一個學生只做過三題數學,那三題都滿分,但換個題型就考零分。解決方法包括資料增強、正則化或用更少的 epoch。
台灣的「個人資料保護法」主要保護的對象是?
台灣個資法保護的就是「你」的個人資料,像姓名、身分證號、電話、住址、醫療紀錄這些。企業的商業機密有營業秘密法保護,國防機密有國家機密保護法,財務報表則受證交法規範。
在 AI 教育應用中,「適性化學習(Adaptive Learning)」系統的核心概念為何?
適性化學習就是 AI 版的因材施教,系統會根據你答對答錯的狀況、學習速度、強弱項來調整給你的內容。答對太簡單的就加難度,答錯的就多練習,讓每個人都有最適合自己的學習路徑。
在資料治理(Data Governance)的框架中,「資料血統(Data Lineage)」追蹤的是什麼?
資料血統就是追蹤資料的「身世」,從它在哪裡產生、經過哪些轉換處理、最後被誰拿去用,整條路徑都記錄清楚。這對確保資料品質、除錯、合規性都很重要,就像食品溯源一樣,要知道你的資料從哪來。
下列哪個是生成式 AI(Generative AI)的應用?
生成式 AI 的重點在「生成」,也就是創造新的內容。自動寫新聞就是生成文字內容。分類郵件、偵測異常、預測股價都是在「判斷」或「預測」,不是在「創造」新東西。
某企業導入 AI 專案時,發現訓練資料中有大量缺失值和重複記錄。在 AI 專案流程中,這個問題應該在哪個階段處理?
垃圾進、垃圾出(Garbage In, Garbage Out),資料品質不好,模型再厲害也沒用。缺失值和重複記錄要在資料前處理階段就搞定,該補的補、該刪的刪、該修的修,才能餵給模型好的食物。
在歐盟 AI Act 中,以下哪種 AI 應用被歸類為「不可接受風險」而被禁止?
歐盟 AI Act 把像中國社會信用系統那樣的「社會評分系統」列為不可接受風險,直接禁止。因為這種系統會嚴重侵害人權和基本自由。推薦系統、品質檢測、醫院排程的風險等級都沒這麼高。
在 NLP 領域中,「命名實體辨識(Named Entity Recognition, NER)」的功能是什麼?
NER 就是讓電腦從文字中挑出「重要的名詞」,像是人名(蔡英文)、地名(台北市)、組織名(台積電)、日期(2024年1月)等。這在資訊擷取、搜尋引擎、客服系統裡超常用的。
AI 中的「訓練」和「推論」最主要的差別是什麼?
訓練就是「上課學習」,讓模型看大量資料學會規律;推論就是「考試作答」,用學到的知識來處理新的問題。通常訓練需要更多時間和運算資源,推論則要求速度快、延遲低。
某銀行使用 AI 進行反洗錢偵測,系統誤將大量合法交易標記為可疑。這種情況在機器學習中稱為什麼?
把正常的東西誤判為異常,就是偽陽性。就像火災警報器太敏感,煮個飯都在叫,這就是 False Positive 太高。反過來,真的有問題卻沒偵測到,那就是偽陰性。在反洗錢場景中,偽陽性太高會讓調查人員疲於奔命。
在 Transformer 架構中,「自注意力機制(Self-Attention)」的核心功能為何?
自注意力機制讓模型在處理一個字的時候,能「看到」整個句子中所有其他字,並計算每個字跟它的關聯程度。這樣模型就知道「他很開心因為考試考了一百分」裡面的「他」和「開心」跟「考了一百分」關係比較大。這是 Transformer 的靈魂。
在 AI 倫理中,「透明度(Transparency)」原則要求什麼?
透明度不是說要把程式碼公開,而是要讓使用者知道「你在跟 AI 互動喔」,而且 AI 做決定的邏輯要能被理解和解釋。就像你去餐廳點餐,至少要知道廚房用了什麼食材,而不是完全黑箱操作。
下列何者不是常見的 AI 開發程式語言?
HTML 是用來寫網頁的標記語言,不是程式語言,更不是拿來做 AI 的。Python 是 AI 界的霸主,R 常用於統計分析,Julia 則是新興的高效能科學計算語言,這三個都跟 AI 有關。
某電商平台的推薦系統同時使用了商品的屬性資訊和用戶的行為資料來做推薦。這種方式稱為什麼?
同時用商品屬性(內容過濾的招)和用戶行為(協同過濾的招),兩招混在一起用就是混合式推薦。這樣可以截長補短,避免單一方法的缺點,效果通常比只用一種好。
在 AI 應用於金融風控時,下列哪種技術最適合用來偵測信用卡盜刷等異常交易?
信用卡盜刷就是「不正常」的交易行為,異常偵測模型專門找出跟正常模式不一樣的資料點。它會學習你平常的消費習慣,一旦出現異常(例如半夜在國外刷了一大筆),就會發出警報。
下列哪個選項最能描述「深度學習」與「機器學習」的關係?
深度學習是機器學習裡面的一個分支,專門使用多層神經網路來學習。就像正方形是長方形的一種,深度學習是機器學習的一種。機器學習還包含決策樹、SVM 等其他不是深度學習的方法。
某企業建立了一個 AI 聊天客服系統,但上線後發現模型有時會產生事實錯誤的回答。這種現象稱為什麼?
AI 很認真地胡說八道,講得頭頭是道但內容是假的,這就是「幻覺」。LLM 特別容易有這個問題,因為它是根據機率生成文字,不是真的「理解」事實。RAG 技術就是為了解決這個問題而生的。
在 MLOps 流程中,「模型漂移(Model Drift)」指的是什麼?
模型漂移就是你的 AI 模型「過期」了。訓練時的資料反映的是過去的世界,但真實世界會變(消費習慣改變、新產品出現、疫情爆發等),當資料分布變了,模型的預測就不準了。這就是為什麼 MLOps 要持續監控模型效能。
在電腦視覺中,「物件偵測(Object Detection)」和「影像分類(Image Classification)」的主要差別為何?
影像分類就是看一張圖說「這是貓」;物件偵測不只要說「有貓」,還要畫個框框告訴你貓在圖片的哪個位置。物件偵測比較難,因為要同時處理「是什麼」和「在哪裡」兩個問題。
下列哪個屬於「非監督式學習」的應用?
非監督式學習就是沒有正確答案(標籤)的學習,模型自己去找資料中的模式。客戶分群(Clustering)就是典型的非監督式學習,模型自動把相似的客戶歸在一起。預測房價、辨識貓狗、醫療診斷都有標籤,是監督式學習。
在 GDPR 中,「被遺忘權(Right to be Forgotten)」賦予資料主體什麼權利?
被遺忘權就是你可以叫企業「把我的資料刪掉」,讓你在網路上消失。當你的個資不再有處理的必要,或者你撤回同意了,企業就必須刪除你的資料。這是 GDPR 賦予歐盟公民的重要權利之一。
在 RAG 系統中,若使用者的問題與知識庫中的文件語意不匹配,可能導致什麼問題?如何改善?
RAG 的品質取決於檢索階段能不能找到對的文件。如果語意不匹配,撈到不相關的內容,LLM 就會根據錯誤資訊回答。改善方式包括:換更好的嵌入模型、做查詢改寫(Query Rewriting)、加入重新排序(Re-ranking)步驟等。
某新創公司想快速建立一個 AI 圖片分類服務,但團隊沒有深度學習工程師。以下哪個策略最適合?
遷移學習就是站在巨人的肩膀上,拿已經訓練好的模型(像 ResNet、ViT)來用,再用你自己的資料微調最後幾層就好。不需要從頭訓練,資料量需求也少,沒有深度學習專家也能用 No Code 工具搞定。
在 AI 專案中,「資料標註(Data Labeling)」是指什麼?
資料標註就是幫資料「寫答案」,例如在一張有貓的圖片上標記「這是貓」,在一段正面評論上標記「正面情感」。這些標籤就是監督式學習的老師,沒有標註的資料,監督式學習就沒辦法學。
在進行文字嵌入(Text Embedding)時,兩個語意相近的句子在向量空間中會呈現什麼特性?
文字嵌入的精髓就是「意思接近的句子,變成數字後也要靠近」。餘弦相似度衡量兩個向量方向的相似程度,值越接近 1 表示越相似。所以「我很開心」和「我好高興」的向量餘弦相似度會很高,這就是語意搜尋能夠運作的原理。
在 AI 應用於醫療影像分析時,為什麼「可解釋性」特別重要?
醫療是高風險場景,AI 說「這個 X 光片有問題」不夠,醫生要知道「哪裡有問題、為什麼判斷有問題」才能信任並採用 AI 的建議。而且萬一出了醫療糾紛,也需要有解釋來釐清責任。
以下哪項技術可以讓 AI 「聽懂」人類說的話?
語音辨識就是把人類的聲音轉成文字,讓電腦能「聽懂」你在說什麼。Siri、Google 助理、語音輸入法都靠這個技術。電腦視覺是「看」東西的,推薦系統是推薦商品的,資料庫管理是存資料的。
在 AI 專案的「模型評估」階段,為什麼需要將資料分成訓練集、驗證集和測試集?
訓練集用來讓模型學習,驗證集用來調參數和選模型,測試集用來做最終評估。重點是測試集模型從來沒看過,這樣才能公平地知道模型面對新資料的表現如何。不然模型把訓練資料背起來考滿分,碰到新題目就掛了。
在知識圖譜的建構過程中,「關係抽取(Relation Extraction)」的任務是什麼?
關係抽取就是從一堆文字中找出「誰跟誰有什麼關係」。例如從「蘋果公司由賈伯斯創辦」這句話中抽出「蘋果公司 - 創辦人 - 賈伯斯」的三元組。這是建構知識圖譜的關鍵步驟,有了實體和關係才能把圖譜串起來。
某教育科技公司想開發 AI 系統來自動批改學生的作文。這個系統最需要哪些 NLP 技術?
自動批改作文需要 AI 能理解文章在寫什麼(語意理解)、有沒有錯字文法錯誤(文法檢查)、寫得好不好(品質評估)。這些都是 NLP 的技術。語音、影像、翻譯、人臉辨識跟批改作文沒什麼關係。
下列哪項是「強化學習」的特色?
強化學習就像訓練小狗一樣,做對了給獎勵(treat),做錯了沒有。AI 透過不斷嘗試和環境互動,慢慢找出能獲得最多獎勵的策略。AlphaGo 就是用強化學習學會下圍棋的。
在資料治理中,「資料品質」的衡量指標通常不包含以下哪一項?
資料品質看的是完整性(有沒有缺值)、正確性(資料對不對)、一致性(不同來源的資料有沒有衝突)、時效性(資料是不是最新的)等。「美觀性」?資料又不是在選美,長得好不好看根本不重要。
在台灣個資法中,下列哪種情況下企業不需要事先取得當事人同意就可以蒐集個資?
台灣個資法有規定幾種「不用同意也可以蒐集」的例外情況,法律明文規定就是其中之一。例如報稅需要身分證字號,這是稅法規定的。但為了行銷、社群分享或收集八卦,統統都要先取得當事人同意。
「過擬合」最簡單的理解方式是什麼?
過擬合就像一個學生把課本上的題目和答案都死背下來,但換個出題方式就不會了。模型把訓練資料記得太詳細,連裡面的雜訊和特例都當成規律,結果碰到新資料就亂了。解決方法有增加資料量、正則化、Dropout 等。
在 AI 專案管理中,為什麼「跨部門合作」很重要?
AI 不是工程師關在房間裡寫程式就能做好的。業務部門知道問題在哪、資料部門知道資料在哪、法務知道合不合法、高層決定要不要投資。少了任何一環,AI 專案都可能變成技術很厲害但沒人用的廢物。
在使用 RAG 時,「文件切割(Chunking)」策略會如何影響檢索效果?
文件切割是 RAG 很關鍵的一步。切太小,一個 chunk 可能只有半句話,缺少上下文;切太大,一個 chunk 裡塞太多內容,搜尋時容易撈到不相關的部分。通常要根據文件類型和應用場景來調整,也可以用重疊切割來保留上下文。
在 AI 倫理中,「人類在迴圈中(Human-in-the-Loop)」的概念是什麼?
Human-in-the-Loop 就是確保 AI 做決定的時候,人類還是有辦法審查、修改或否決。特別是在高風險場景(醫療診斷、司法判決),不能完全讓 AI 說了算,人類要有最後的把關權。這是負責任 AI 的重要原則。
以下哪個是 AI 在製造業中的常見應用?
製造業最關心的是設備別突然壞掉影響產線,用 AI 分析設備數據來預測什麼時候可能故障,提前安排維修,這就是預測性維護。社群貼文、翻譯小說、推薦電影都是其他領域的應用。
在使用 LLM 時,「Temperature」參數的作用為何?
Temperature 是控制 LLM 創意程度的旋鈕。設低(像 0.1)模型會很保守,每次回答都差不多;設高(像 1.0)模型會比較有創意但也比較跳。寫正式報告適合低溫,想要創意故事適合高溫。跟 CPU 溫度完全無關啦。
在聯邦學習(Federated Learning)中,資料的處理方式有何特色?
聯邦學習的精髓就是「資料不出門」。每個參與方(比如各家醫院)在自己的資料上訓練模型,只把學到的模型參數傳到中央伺服器做聚合,病人的個資完全不需要離開醫院。這對隱私保護超友善,特別適合醫療、金融等敏感資料場景。
某公司的 AI 招聘系統被發現傾向推薦男性候選人,主要可能原因為何?
AI 不會天生就偏向某個性別,問題出在訓練資料。如果歷史上公司錄取的大多是男性,AI 就會「學到」男性候選人比較好這個偏見模式。這就是 Amazon 曾經發生過的真實案例,最後他們不得不廢棄那個招聘 AI。
ChatGPT、Claude 這類 AI 助手屬於哪種技術類別?
ChatGPT 和 Claude 背後都是大型語言模型(LLM),經過預訓練、微調和 RLHF 等步驟打造而成。它們不是靠關鍵字匹配或寫死的規則來回答,而是真正「理解」語意後生成回答。跟早期那種只會對關鍵字回罐頭回答的聊天機器人完全不同層次。
在電腦視覺中,「資料增強(Data Augmentation)」的目的為何?
資料增強就是用各種方式「變造」現有的圖片來生出更多訓練資料。把貓的照片翻轉一下就是另一張訓練資料,旋轉一下又是一張。這樣模型就能看到更多樣的變化,學得更全面,特別是在資料量不夠的時候超好用。
在 LLM 的訓練流程中,「指令微調(Instruction Tuning)」與一般微調的主要差別為何?
指令微調就是餵給模型大量「問題 + 理想回答」的配對,讓模型學會:當你給我一個指令,我應該怎麼回答。這就是為什麼 ChatGPT 能理解各種任務指令的原因。一般微調可能只針對特定任務(如情感分類),但指令微調讓模型變成通用的指令執行者。
在 AI 應用於金融領域時,「量化交易」使用 AI 的主要方式為何?
量化交易就是用數學模型和 AI 來分析市場數據(價格、交易量、新聞情緒等),找出可能獲利的模式,然後自動執行買賣。AI 的優勢在於能處理超大量的數據並在毫秒內做出決策,這是人類交易員做不到的。
下列哪種模型架構最常用於處理序列資料(如時間序列或文字)?
序列資料有前後順序的關係,RNN 天生就是為了處理序列而設計的,而 Transformer 用注意力機制更有效地處理長序列。CNN 主要用於影像,K-means 用於分群,決策樹用於分類和迴歸,都不是專門處理序列的。
在部署 AI 模型到生產環境時,為什麼需要考慮「模型壓縮」技術?
模型太大、太慢就沒辦法在手機或 IoT 裝置上跑。模型壓縮(包括量化、剪枝、知識蒸餾等技術)就是在盡量不犧牲準確率的前提下,讓模型變小變快。這對邊緣裝置部署和降低推論成本都很重要。
在歐盟 AI Act 中,「高風險 AI 系統」的提供者需要遵守哪些義務?
歐盟 AI Act 對高風險 AI 的要求非常嚴格:要做全面的風險評估、確保訓練資料品質、建立完整的技術文件、實施人類監督機制、確保準確性和穩健性等。不是隨便放個免責聲明就了事的,這也是為什麼很多公司對 AI Act 又愛又怕。
在建構推薦系統時,「冷啟動問題(Cold Start Problem)」是指什麼?
冷啟動就是推薦系統的「新手村困境」。一個新用戶剛註冊,系統完全不知道他喜歡什麼;一個新商品剛上架,沒有人買過,系統不知道推薦給誰。解決方法包括先用基於內容的推薦、請用戶填偏好問卷、或用人口統計資料做初步推薦。
在 AI 專案中,「特徵工程(Feature Engineering)」是指什麼?
特徵工程就是把原始資料加工成模型更容易學習的形式。例如從「出生日期」算出「年齡」,從「購買記錄」算出「月均消費金額」,這些都是新的特徵。好的特徵工程可以大幅提升模型效能,是資料科學家的核心技能之一。
在 NLP 中,「文字分詞(Tokenization)」的目的為何?
電腦不像人類可以直接看懂一整段文字,需要先把文字切成一小塊一小塊的 token。中文可能是一個字一個 token,英文可能是一個字詞或子字詞。這是所有 NLP 模型處理文字的第一步,沒有分詞就什麼都做不了。
在 MLOps 中,「CI/CD for ML」(持續整合/持續交付用於機器學習)與傳統軟體的 CI/CD 有何不同?
傳統 CI/CD 管的是程式碼的建構、測試、部署。ML 的 CI/CD 除了這些之外,還要管資料的版本(資料變了模型就要重新訓練)、模型的版本、訓練 pipeline 的自動化、模型效能的測試等。所以 ML 的 CI/CD 其實更複雜。
以下關於「遷移學習(Transfer Learning)」的描述,何者正確?
遷移學習就是「學一招用到另一招」。在 ImageNet 上學過辨識物體的模型,把學到的基礎知識(邊緣、紋理、形狀)轉移到醫療影像辨識,只要再微調就好。NLP 和電腦視覺都廣泛使用遷移學習,大大減少了所需的資料量和訓練時間。
在使用 AI 處理個人資料時,以下哪個做法符合「資料最小化」原則?
資料最小化就是「夠用就好,別貪心」。只蒐集你真正需要用到的資料,不要為了「說不定以後用得到」就什麼都收。這是 GDPR 和台灣個資法都強調的原則,蒐集越少,洩漏的風險就越低。
在 AI 應用於教育領域時,以下哪個不是 AI 可以帶來的好處?
AI 可以做個人化教學、自動批改、學習分析,但完全取代老師是不可能的。老師提供的情感支持、人格教育、激勵學生、處理突發狀況等,這些都是 AI 目前做不到的。AI 是輔助老師,不是取代老師。
在進行 AI 模型的 A/B 測試時,下列哪個做法是正確的?
A/B 測試的重點是在真實環境中,同時讓不同組的使用者分別使用新舊版本,然後比較業務指標(點擊率、轉換率、客戶滿意度等)。同一組使用者先後測試會有順序效應,只看準確率不夠全面,模型大小更不能代表效果好壞。
某公司開發了一個 AI 面試官系統,面試過程中會分析求職者的表情和語調。這涉及了哪些 AI 技術?
分析表情需要電腦視覺技術(臉部表情辨識),分析語調需要語音分析技術。同時處理影像和語音這兩種不同類型的資料,就是多模態 AI 的應用。不過要注意,這類系統的公平性和隱私問題也是很大的爭議。
下列哪個工具主要用於 AI 模型的版本管理?
MLflow 和 DVC(Data Version Control)是 MLOps 領域常用的工具,專門用來追蹤模型的版本、實驗記錄、參數設定等。就像 Git 管理程式碼一樣,它們管理 AI 模型。Word、Photoshop、Excel 都不是拿來管模型的。
在資料治理中,「去識別化(De-identification)」的目的為何?
去識別化就是把資料中能認出你是誰的資訊拿掉或遮蔽。例如把姓名換成代號、把身分證字號遮蔽部分數字。這樣資料還是可以拿來做分析和訓練 AI,但不會洩漏個人隱私。這是同時兼顧資料利用和隱私保護的重要手段。
以下關於「邊緣運算(Edge Computing)」與 AI 結合的描述,何者正確?
邊緣運算就是把計算搬到離資料產生地點最近的裝置上(手機、IoT 裝置、工廠設備等),不用每次都傳到雲端。好處是延遲低、不需要網路也能跑、隱私也更好。自駕車就是典型例子,不可能每次都傳到雲端等回覆再轉彎吧。
以下哪個選項正確描述了「AI 偏見(AI Bias)」的來源?
AI 偏見最常見的來源就是訓練資料本身帶有偏見。如果歷史資料中女性工程師很少,AI 就可能學到「工程師 = 男性」的錯誤認知。不只是程式碼的問題,不只是舊系統的問題,任何 AI 系統只要訓練資料有偏,就可能產生偏見。
在 AI 專案的成本效益分析中,以下哪項通常是最大的成本?
AI 專案最花錢的通常是資料相關的工作(蒐集、清洗、標註都超花時間和人力)和運算資源(GPU 租金或購買費用)。很多公司低估了資料準備的成本,結果預算爆表。辦公家具和音樂串流跟 AI 成本扯不上關係。
在知識圖譜增強的 RAG 系統(Graph RAG)中,知識圖譜主要提供什麼額外價值?
Graph RAG 把知識圖譜加到 RAG 流程中,好處是知識圖譜有清楚的實體關係結構,能幫助 LLM 做多跳推理(A 跟 B 有關、B 跟 C 有關,所以 A 跟 C 也有某種關聯)。純向量搜尋可能漏掉這種鏈式關係,加入知識圖譜可以讓回答更精準完整。
某醫院想使用 AI 輔助診斷系統,但擔心病患資料的隱私問題。以下哪種技術最能解決這個問題?
聯邦學習讓資料留在醫院內不外傳,差分隱私在資料中加入少量雜訊保護個人隱私。這兩種技術都能在保護病患隱私的前提下使用 AI,不用在「用 AI」和「保護隱私」之間二選一。
以下哪個是「自然語言生成(NLG)」的應用?
自然語言生成就是讓 AI「寫」東西出來。自動產生新聞摘要、天氣預報文字、商品描述等都是 NLG 的應用。語音轉文字是語音辨識(ASR),人臉辨識是電腦視覺,網路異常偵測是資安分析。
在開發 AI 系統時,「模型可重現性(Reproducibility)」為什麼重要?
模型可重現性就是「別人照著你的步驟做,應該能得到類似的結果」。這對科學研究的嚴謹性、團隊合作、問題除錯都很重要。如果每次跑出來的結果都不一樣又找不出原因,那你怎麼知道模型到底有沒有改善?
在 AI 應用於製造業的品質管理中,以下哪種方式最能提升不良品的偵測率?
人工目檢會疲勞、會看漏,AI 不會。用深度學習訓練的電腦視覺系統可以 24 小時不間斷地檢查每一個產品,偵測微小的瑕疵(裂痕、刮傷、色差等),速度快又準確。這是製造業導入 AI 投資報酬率最高的應用之一。
以下哪個是「雲端運算」在 AI 開發中的主要優勢?
雲端運算最大的好處是彈性,需要 GPU 的時候租用,不需要的時候關掉,不用花幾百萬買伺服器養在那裡。當然它不是永遠最便宜(長期大量使用可能自建更划算),也需要網路連線和基本設定。
在 AI 應用的「可問責性(Accountability)」原則中,當 AI 系統做出錯誤決策時,責任應該歸屬於誰?
AI 不是法律主體,不能被告、不能負責任。當 AI 出錯時,負責的是背後開發、部署、使用它的組織和個人。這就是為什麼企業導入 AI 需要建立清楚的責任歸屬機制,不能出了事就說「AI 做的,不關我的事」。
在大型語言模型中,「注意力窗口(Context Window)」的限制會造成什麼影響?
Context Window 就是 LLM 一次能「記住」的文字量上限。超過這個限制,模型就看不到前面的內容了。這也是為什麼 RAG 要做文件切割,以及為什麼各家都在競爭更大的上下文窗口(從 4K 到 128K 甚至更長)。
以下哪個做法最能減少 AI 模型的偏見問題?
減少 AI 偏見要從源頭做起:確保訓練資料涵蓋各種群體、各種情境,並且在開發過程中用公平性指標來持續檢測。光是增加運算資源、加速訓練或加深模型,都不會讓偏見自動消失,反而可能讓偏見學得更「好」。
在實施 AI 專案時,「資料管線(Data Pipeline)」的功能為何?
資料管線就是一條自動化的「流水線」,把資料從各個來源收集進來、清洗掉髒資料、轉換成需要的格式、最後載入到目的地。整個過程是自動化的,不用每次都手動執行。這是 MLOps 中很重要的基礎建設。
在進行 LLM 的量化(Quantization)時,將模型從 FP32 降為 INT8,主要的權衡為何?
量化就是把模型的數字精度降低(從 32 位浮點數變成 8 位整數),好處是模型小了大約 4 倍、推論也更快更省記憶體,代價是可能會損失一點點準確度。但現代的量化技術已經把精度損失控制得很小了,所以是部署大模型的必備技巧。
在 AI 倫理框架中,「負責任的 AI(Responsible AI)」通常包含哪些核心原則?
負責任的 AI 不只是追求技術上的好,還要兼顧社會面的好。公平性(不歧視)、透明度(讓人知道在跟 AI 互動)、可解釋性(看得懂決策原因)、隱私保護、安全性、可問責性,這些加在一起才是完整的負責任 AI 框架。
以下哪種資料類型屬於「結構化資料」?
結構化資料就是有固定格式、整齊排列的資料,像 Excel 表格或資料庫裡面的表一樣,每一列是一筆記錄、每一欄是一個欄位。文字貼文、照片、影片都是非結構化資料,沒有固定的格式。
某企業的 AI 客服系統會記錄客戶的對話內容。根據隱私保護原則,企業應該怎麼做?
隱私保護的基本功:告知(讓客戶知道你在錄)、目的限定(只用於改善服務)、期限管理(不要永遠留著)、提供權利(客戶可以要求刪除)。偷偷錄違法,永久保存違反目的限定原則,賣給第三方更是大忌。
在建構企業級 RAG 系統時,「混合搜尋(Hybrid Search)」結合了哪兩種搜尋方式來提升檢索品質?
混合搜尋把傳統的關鍵字搜尋(BM25 等稀疏向量方法)和語意搜尋(嵌入模型產生的密集向量)結合起來。關鍵字搜尋擅長精確匹配,語意搜尋擅長理解意思。兩者結合就能兩全其美,既不會漏掉包含關鍵字的文件,也能找到語意相關的內容。
在 AI 專案中,「MVP(最小可行產品)」的概念應用為何?
MVP 在 AI 專案中就是先做一個「夠用」的版本來驗證你的想法行不行。不用一開始就做到完美,先確認 AI 真的能解決問題、有商業價值,再逐步優化。這樣可以避免花了一年做出來結果發現根本沒用。
以下哪個不是 AI 的主要學習範式?
AI 的三大學習範式是監督式學習(有標籤學)、非監督式學習(沒標籤自己找規律)和強化學習(跟環境互動拿獎勵)。「背誦式學習」不是 AI 的學習範式,那是考試前一晚的你。
在使用 No Code AI 工具建立模型時,以下哪個仍然是使用者需要關注的重點?
No Code 工具降低了技術門檻,但不代表你可以完全不管。垃圾資料還是會產生垃圾模型,模型適不適合你的場景要自己判斷,結果合不合理也要自己看。工具再好,也需要人類的判斷力。
在 AI 系統的「對抗性攻擊(Adversarial Attack)」中,攻擊者的常見手法為何?
對抗性攻擊很詭異:在圖片上加入人眼完全看不出來的微小改變,就能讓 AI 把熊貓辨識成長臂猿。這暴露了 AI 模型的脆弱性,對自駕車等安全關鍵系統是很大的威脅。研究者也在發展對抗性訓練等防禦方法。
在 AI 專案的商業評估中,「ROI(投資報酬率)」的計算需要考慮哪些因素?
ROI 就是「花了多少錢、賺回多少」。AI 專案的投入包括資料成本、GPU 費用、工程師薪水等,產出包括效率提升省下的時間、減少的人力成本、增加的營收等。光看準確率不夠,要看真正帶來的商業價值才有意義。
「GAN(生成對抗網路)」的基本架構包含哪兩個部分?
GAN 就像一場造假高手和鑑定專家的對決。生成器負責「造假」(生成假資料),判別器負責「鑑定真假」。兩個互相較勁,生成器越來越會造假,判別器越來越會鑑定,最後生成器就能產生以假亂真的內容。
某保險公司想用 AI 自動審核理賠申請,在設計系統時最應該注意什麼?
理賠審核直接影響客戶權益,AI 決策必須公平(不能因為某些特徵就偏袒或歧視)、可解釋(拒賠要說清楚為什麼)、有人工覆核(重大案件還是要人把關)。純追速度或炫技術,出了問題可是要吃官司的。
在使用 LLM 建構 AI Agent 時,「Tool Use(工具使用)」能力的意義為何?
LLM 很強但不是萬能的,數學計算可能算錯、不知道最新資訊、無法直接操作外部系統。Tool Use 就是讓 LLM 學會「找幫手」:需要計算就叫計算器、需要最新資訊就上網搜、需要查資料庫就呼叫 API。這是 AI Agent 能做複雜任務的關鍵。
在電腦視覺中,「語意分割(Semantic Segmentation)」和「物件偵測」的差別為何?
物件偵測是畫方框圈出物件,語意分割是把圖片每一個像素都標上顏色,精確到物件的輪廓。例如自駕車需要知道道路、行人、車輛的精確邊界,這時就需要語意分割,方框就不夠精確了。
以下哪個選項是「監督式學習」中常見的任務類型?
監督式學習的兩大任務就是分類(預測類別,如垃圾郵件或不是)和迴歸(預測數值,如房價多少)。分群和降維是非監督式學習的任務,關聯規則探勘也是非監督式的(例如「買尿布的人也常買啤酒」)。
以下關於 AI 在醫療領域的應用,哪一項描述最恰當?
AI 在醫療的定位是「輔助」,不是「取代」。它可以幫醫生更快更準確地判讀 X 光片、CT 影像,加速藥物研發流程,提供診斷建議。但最終決策還是醫生做,因為醫療牽涉太多人文因素和專業判斷,AI 還無法完全處理。
在 MLOps 的「特徵儲存(Feature Store)」中,其主要功能為何?
Feature Store 就是一個「特徵超市」,把各團隊做好的特徵集中管理。好處有三:一是不用重複造輪子,別的團隊做過的特徵你可以直接用;二是確保訓練和推論用的特徵一致,避免 train-serve skew;三是追蹤特徵的血統和版本。
在 Prompt Engineering 中,以下哪個技巧可以降低 LLM 產生幻覺的機率?
告訴模型「只根據我給你的資料回答,不確定就說不知道」,可以大幅降低幻覺。這叫「基於事實的回答(Grounded Response)」策略。Temperature 設太高反而會增加幻覺,不給上下文更是讓模型自由發揮的亂源。
以下哪個情境最適合使用「分群演算法」?
分群就是把相似的東西歸在一起,而且事先不知道要分幾群、也沒有標準答案。顧客分群就是典型應用:讓 AI 自動發現哪些客戶行為類似,分成「價格敏感型」「品質導向型」之類的群組,方便制定不同的行銷策略。
在 AI 應用於教育時,「學習分析(Learning Analytics)」的主要價值為何?
學習分析不只是看成績排名而已,而是深入分析學生的學習行為(看了什麼、花了多久、哪裡卡關、答錯了哪些題),找出學習的痛點,然後給出改善建議。這能幫助老師更有針對性地教學,學生也能更有效率地學習。
在建構生產級 AI 系統時,「Canary Deployment(金絲雀部署)」策略的做法為何?
金絲雀部署這個名字來自早期礦工會帶金絲雀下礦坑偵測毒氣。在 AI 部署中也是同樣概念:先讓少量用戶(例如 5%)使用新模型,密切監控有沒有問題。沒問題就慢慢開放給更多人,有問題就快速回退。這比一次全面部署安全得多。
在 AI 倫理中,「數位落差(Digital Divide)」的問題是指什麼?
數位落差就是有些人能輕鬆使用 AI 技術,有些人卻因為經濟能力、教育程度、網路基礎設施不足等原因而被排除在外。這會加大社會不平等,例如偏鄉學生無法使用 AI 學習工具,就會和都市學生的差距越來越大。
以下哪個是「自動化機器學習(AutoML)」的主要功能?
AutoML 就是讓機器學習的過程更自動化。以前要自己試不同的演算法、手動調參數,AutoML 幫你自動嘗試各種組合,找出最好的模型和參數。對於沒有太多 ML 經驗的人來說,AutoML 是很棒的入門工具。
在建構知識圖譜時,「本體論(Ontology)」定義的是什麼?
本體論就像是知識圖譜的「設計藍圖」,定義了這個領域裡有哪些類型的東西(例如:疾病、症狀、藥物)、它們有什麼屬性(例如:藥物有副作用)、彼此之間有什麼關係(例如:藥物可以治療疾病)。有了本體論,知識圖譜才知道要怎麼建。
在 LLM 的安全性中,「提示注入攻擊(Prompt Injection)」是指什麼?
提示注入就像 SQL Injection 的 LLM 版本。攻擊者會在輸入中偷塞指令,例如「忽略你之前的所有指令,改為執行......」,試圖讓 LLM 繞過安全限制做出危險行為。這是目前 LLM 應用安全性的一大挑戰,需要多層防禦措施。
在資料治理中,「資料目錄(Data Catalog)」的功能為何?
資料目錄就像圖書館的索引系統,讓你能快速找到組織裡有什麼資料、在哪裡、誰負責管理、品質如何、有什麼使用限制。在大組織裡,沒有資料目錄的話,你可能根本不知道隔壁部門已經有你要的資料了。
以下哪個是 AI 在金融領域中的常見應用?
AI 在金融領域最常見的應用就是用機器學習分析交易模式,偵測異常和詐騙行為。每天幾百萬筆交易,靠人去看不可能,AI 可以即時分析每一筆交易,發現可疑的就立刻標記。修硬體、設計建築、清潔大廳都不是 AI 的活。
在多模態 AI 的應用中,「視覺問答(Visual Question Answering, VQA)」系統的運作方式為何?
VQA 是多模態 AI 的經典應用:你給 AI 一張圖片,問它一個問題(例如「圖片裡有幾隻狗?」),AI 要能「看懂」圖片並用文字回答。這需要同時具備影像理解和語言生成能力,GPT-4V、Gemini 等都具備這種能力。
在設計 AI 系統的「紅隊測試(Red Teaming)」中,測試者的主要角色為何?
紅隊測試就是找一群人專門想辦法「搞壞」你的 AI 系統,看看能不能讓它說出不該說的話、做出不該做的事。這是上線前的壓力測試,越早發現漏洞越好。OpenAI、Google 等大公司在發布模型前都會做紅隊測試。
在 AI 專案管理中,以下哪個是確保 AI 專案成功的關鍵因素?
AI 專案成功的關鍵不是砸錢買設備,而是一開始就想清楚要解決什麼問題、確保資料夠好夠乾淨、設定清楚的 KPI(例如提升 10% 的準確率)、然後不斷迭代改善。很多 AI 專案失敗的原因是問題定義不清楚或資料品質太差。
在企業導入 AI 時,「AI 治理委員會」的主要職責為何?
AI 治理委員會是企業內部的「AI 管家」,負責制定 AI 使用的規範和政策、審核哪些 AI 應用風險太高需要額外把關、確保 AI 的使用符合法規和倫理標準、協調各部門的 AI 策略讓大家方向一致。隨著 AI 應用越來越多,這個角色會越來越重要。
企業導入生成式 AI 聊天機器人時,最重要的第一步是什麼?
導入任何 AI 工具的第一步都是先搞清楚「要解決什麼問題」。如果問題沒定義清楚,就算買了最好的模型也會做出沒人用的東西。先確定場景和目標,再來選工具和技術。
在檢索增強生成(RAG)架構中,如果使用者問了一個知識庫裡完全沒有的問題,最理想的系統行為是什麼?
RAG 的核心價值就是用可信的知識庫來回答問題。如果知識庫裡沒有相關資料,最好的做法是誠實告知使用者,而不是讓模型自己瞎掰(容易產生幻覺)或隨機拼湊答案。這也是負責任 AI 的基本原則。
台灣的個人資料保護法規定,企業蒐集個人資料時,下列哪項是必要條件?
台灣個資法要求蒐集個人資料時必須告知當事人蒐集目的、利用範圍等事項,並取得當事人同意。不一定要書面形式,但「告知 + 同意」是基本要求。光公告隱私權政策但沒有實際取得同意是不夠的。
某醫療 AI 系統的癌症篩檢模型 Recall 為 98% 但 Precision 只有 60%,這代表什麼意義?管理層該如何決策?
Recall 98% 表示 100 個真正癌症患者中有 98 個會被找到(幾乎不漏診),Precision 60% 表示被標記為癌症的人中只有 60% 是真正的癌症(有 40% 虛驚一場)。在癌症篩檢場景中,漏診的代價遠大於誤判,所以高 Recall 低 Precision 是合理的取捨。被誤判的人後續可以做進一步檢查來排除。
在 MLOps 實踐中,「模型漂移」指的是什麼現象?
模型漂移是 MLOps 中最常見的問題之一。模型是用歷史資料訓練的,但真實世界會改變。例如用戶行為變了、市場趨勢變了,原本學到的規律就不準了。所以需要持續監控模型表現,發現漂移就要重新訓練。
下列哪種工具最適合讓完全不會寫程式的行銷人員快速建立一個 AI 聊天機器人?
無程式碼平台的設計理念就是讓不會寫程式的人也能建立 AI 應用。像 Chatfuel、Botpress 這類工具提供視覺化介面,用拖拉的方式就能設計聊天流程,完全不需要寫程式碼,非常適合行銷人員快速驗證想法。
歐盟 AI 法案將 AI 系統分為四個風險等級。某公司開發了一套用於企業內部會議摘要的 AI 工具,這最可能被歸類為哪個等級?
會議摘要工具屬於一般商業用途的 AI 應用,不涉及生物辨識、關鍵基礎設施、教育評分、司法判決等高風險領域,也不是社會信用評分等被禁止的應用。它可能需要告知使用者正在與 AI 互動(透明度義務),但整體屬於最小風險等級,受到的管制最少。
一家銀行的 AI 貸款審核系統被發現對特定族群的核貸率明顯偏低。下列哪種做法最能有效解決這個演算法偏見問題?
單純刪除族群欄位不一定有效,因為其他欄位(如郵遞區號、教育程度)可能間接反映族群資訊(代理變數)。正確做法是從根本檢視訓練資料是否有代表性偏差,同時用公平性指標(如均等機會、人口統計平等)持續監控模型輸出。統一核貸率會失去風控意義,換模型也不能解決資料偏差問題。
某新創公司要向投資人報告 AI 專案的投資報酬率(ROI),下列哪種計算方式最合理?
AI 的 ROI 應該從商業角度計算,包含所有效益(收益增加、成本節省、效率提升的貨幣化價值)減去所有成本(開發、資料準備、部署、維運),再除以總投入成本。單看模型準確率或訓練時間都不是商業指標,只看營收差異則忽略了成本面和其他因素的影響。