一、學習目標
完成本單元後,你將能夠:
- 說明知識圖譜的定義與三元組(Triple)結構
- 解釋圖神經網路(GNN)中訊息傳遞(Message Passing)的運作原理
- 比較 GCN、GraphSAGE、GAT 三種主要 GNN 架構的特色
- 說明為何傳統機器學習難以處理圖結構資料
- 列舉知識圖譜與 GNN 的主要應用場景
二、核心內容
1. 什麼是知識圖譜?
知識圖譜(Knowledge Graph)是一種以「實體(Entity)」為節點、以「關係(Relationship)」為邊的圖結構知識庫,用來儲存和表示現實世界中大量的結構化知識。
生活類比:知識圖譜就像一張超大型的心智圖(Mind Map)。在普通心智圖裡你可能寫「台積電 → 生產 → 晶片」;知識圖譜裡則有數十億個這樣的「誰 → 做了什麼 → 對誰」的連結,而且每個實體可以同時連結到數百個其他實體,形成一個龐大的知識網絡。
Google Knowledge Graph 的例子
當你在 Google 搜尋「愛因斯坦」,右側出現的「知識卡片」就來自 Google Knowledge Graph。它顯示:
- 愛因斯坦(實體)出生於 德國烏爾姆(實體)
- 愛因斯坦(實體)獲得 諾貝爾物理學獎(實體)
- 愛因斯坦(實體)提出 相對論(實體)
- 愛因斯坦(實體)任職於 普林斯頓高等研究院(實體)
這種結構讓搜尋引擎不只「找網頁」,而是真正「理解知識」。
2. 三元組結構:知識圖譜的基本單位
知識圖譜的最小單位是三元組(Triple),格式為:
(主體 Subject) → [謂語 Predicate] → (客體 Object)
| 主體(Subject) | 謂語(Predicate) | 客體(Object) |
|---|---|---|
| 台積電 | 總部位於 | 新竹 |
| 黃仁勳 | 擔任 CEO 的公司 | NVIDIA |
| 阿斯匹靈 | 治療 | 頭痛 |
| AlphaFold | 由 | DeepMind 開發 |
生活類比:三元組就像一句話的主謂賓結構。「主體做了什麼事(謂語)對誰(客體)」——這正是人類語言描述關係最自然的方式,也是知識的最小原子。
3. 如何建構知識圖譜?
建構知識圖譜涉及三個主要步驟:
步驟一:實體抽取(Entity Extraction / Named Entity Recognition)
從非結構化文本中辨識出實體,例如人名、地名、組織名稱、產品名稱等。
例:從「台積電在 2024 年啟用位於亞利桑那州的晶圓廠」中,抽取出「台積電」(組織)、「2024 年」(時間)、「亞利桑那州」(地點)、「晶圓廠」(設施)。
步驟二:關係抽取(Relation Extraction)
辨識實體之間的語義關係,建立三元組連結。
例:從上句中,建立「台積電 → 啟用 → 晶圓廠」、「晶圓廠 → 位於 → 亞利桑那州」兩個三元組。
步驟三:知識融合(Knowledge Fusion / Entity Alignment)
不同資料來源可能用不同方式描述同一個實體(例如「TSMC」與「台積電」、「台灣積體電路製造公司」指的是同一個公司),知識融合將這些重複實體合併,維護知識圖譜的一致性。
| 步驟 | 技術 | 目標 |
|---|---|---|
| 實體抽取 | NER(命名實體辨識) | 識別文本中的關鍵實體 |
| 關係抽取 | Relation Extraction | 找出實體間的語義關係 |
| 知識融合 | Entity Alignment | 跨來源合併相同實體 |
考試重點:知識圖譜的建構三步驟——實體抽取、關係抽取、知識融合——是考試高頻出題點。
4. 什麼是圖神經網路(GNN)?
圖神經網路(Graph Neural Network, GNN) 是一種專門處理「圖結構資料(Graph-Structured Data)」的深度學習架構。
為什麼需要 GNN?
傳統機器學習(如表格資料 + XGBoost)假設每個樣本是「獨立且同分布」的,但現實中大量資料有天然的圖結構,樣本之間的連結關係(Edges)本身就是重要資訊:
| 資料類型 | 節點(Node) | 邊(Edge) | 若忽略連結關係的損失 |
|---|---|---|---|
| 社群網路 | 使用者 | 好友關係 | 無法利用「共同朋友」等社群訊號 |
| 分子結構 | 原子 | 化學鍵 | 無法理解分子的空間結構與特性 |
| 知識圖譜 | 實體 | 語義關係 | 無法進行關係推理與知識補全 |
| 交通網路 | 路口 / 站點 | 道路 | 無法預測交通流量的連鎖效應 |
| 金融詐欺 | 帳戶 | 轉帳關係 | 無法識別詐欺環形網路 |
生活類比:把一個社群網路拆解成獨立的使用者清單,就像把一幅拼圖的碎片混進一個大袋子裡——每塊碎片的顏色和形狀你都看得到,但碎片之間的連接關係(哪塊碎片接哪塊)消失了,你永遠拼不回完整的圖。GNN 的價值就是同時利用節點本身的特徵(碎片的顏色)與節點之間的關係(碎片如何拼接)。
5. GNN 的核心:訊息傳遞機制(Message Passing)
GNN 的工作原理是訊息傳遞(Message Passing):每個節點從它的鄰居(Neighbors)蒐集資訊,更新自己的表示(Embedding)。
一輪訊息傳遞的步驟:
1. 聚合(Aggregate):每個節點收集所有鄰居節點的當前嵌入
2. 更新(Update): 將自身嵌入與聚合的鄰居資訊合併,產生新的嵌入
3. 重複: 堆疊多層(L 層),讓每個節點接收到 L 跳(L-hop)以外的資訊
生活類比:訊息傳遞就像八卦在社群中傳播。第一輪,你只知道直接認識的朋友在做什麼(1-hop);第二輪,你朋友告訴你他們的朋友的事(2-hop);疊加多層之後,你就對整個社群網路有了全局認識。
重複 L 層訊息傳遞後,每個節點的嵌入就包含了以它為中心、半徑 L 的子圖結構資訊。
考試重點:GNN 的訊息傳遞機制是核心考點——「每個節點從鄰居聚合資訊並更新自身嵌入」,以及堆疊 L 層代表能捕捉 L 跳之內的圖結構資訊。
6. 三大 GNN 架構比較
GCN(Graph Convolutional Network)
GCN 是 2016 年由 Kipf & Welling 提出的最基礎 GNN 架構,將影像 CNN 的卷積概念推廣到圖上。每個節點的新嵌入等於自身與所有鄰居嵌入的加權平均(以節點度數做正規化)。
特點:簡單高效、需要整個圖同時在記憶體中(Transductive,歸納場景較差)
GraphSAGE(Graph Sample and AggreGatE)
GraphSAGE 改進 GCN 的兩個缺點:首先,它採用「採樣」策略——每次只聚合固定數量的鄰居,而非全部鄰居,使其能夠擴展到大型圖;其次,它支援 Inductive Learning(歸納學習),即訓練後能對沒見過的新節點進行預測。
生活類比:GCN 像是開全員大會(所有人都要到場),GraphSAGE 像是抽樣問卷(隨機訪問部分人),後者能在大公司(大型圖)中更有效率地蒐集意見。
GAT(Graph Attention Network)
GAT 在聚合鄰居資訊時引入注意力機制(Attention),讓模型自動學習「哪些鄰居更重要」,而非對所有鄰居一視同仁地平均。
生活類比:GAT 就像 GNN 版本的 Multi-Head Attention——開會時,你自然會更重視某些同事的意見(他們和你的任務更相關),而不是平均對待每個人說的話。
| 架構 | 聚合方式 | 能否處理新節點? | 特點 |
|---|---|---|---|
| GCN | 固定加權平均(正規化) | 否(Transductive) | 簡單基準,適合小圖 |
| GraphSAGE | 採樣 + 可選聚合函數 | 是(Inductive) | 適合大型圖、動態圖 |
| GAT | 注意力加權聚合 | 是 | 自動學習鄰居重要性 |
7. 應用場景
社群網路分析(Social Network Analysis)
- 社群偵測(Community Detection):找出關係緊密的使用者群體
- 連結預測(Link Prediction):預測「你可能認識」的朋友推薦
- 影響力分析(Influence Analysis):找出社群中的意見領袖
蛋白質結構預測(Protein Structure Prediction)
DeepMind 的 AlphaFold 2 將蛋白質中的胺基酸序列視為圖(節點為胺基酸,邊為鍵結關係),使用基於注意力機制(Evoformer,類 Transformer)的圖推理技術,成功在極高精度下預測蛋白質的三維空間結構,被視為生物資訊學的革命性突破。
生活類比:蛋白質就像一條長鏈,鏈上每顆珠子(胺基酸)互相影響彼此的空間位置。傳統方法要 X 光晶體學實驗做數年;AlphaFold 用圖推理在幾分鐘內預測完成。
金融詐欺偵測(Fraud Detection)
把帳戶當節點、轉帳行為當邊,GNN 可以識別傳統機器學習無法察覺的「詐欺環(Fraud Ring)」——即多個帳戶互相轉帳形成的循環洗錢結構。
藥物探索(Drug Discovery)
將分子表示為圖(原子為節點,化學鍵為邊),GNN 可以預測分子的化學性質、藥物與靶點的結合親和力(Binding Affinity),大幅加速新藥開發。
供應鏈與推薦系統
- 供應鏈風險:以供應商為節點、採購關係為邊,預測供應中斷的連鎖效應
- 推薦系統:以用戶和商品為二部圖節點,邊為互動行為,圖協同過濾(Graph Collaborative Filtering)比矩陣分解更能利用用戶社群結構
8. 傳統 ML vs GNN:能力對比
| 比較維度 | 傳統機器學習(如 XGBoost) | 圖神經網路(GNN) |
|---|---|---|
| 資料假設 | 樣本獨立同分布(i.i.d.) | 節點之間有顯式連結關係 |
| 特徵輸入 | 結構化表格特徵 | 節點特徵 + 圖的拓樸結構 |
| 關係建模 | 需手工設計關係特徵 | 自動從圖結構中學習 |
| 擴展性 | 適合大規模表格資料 | 適合大型稀疏圖(GraphSAGE) |
| 可解釋性 | 較高(如特徵重要性) | 較低(注意力權重可部分解釋) |
| 典型場景 | 金融風控(用戶層面)、廣告預測 | 詐欺環偵測、蛋白質預測、知識圖譜推理 |
三、關鍵名詞中英對照
| 中文 | 英文 | 說明 |
|---|---|---|
| 知識圖譜 | Knowledge Graph | 以實體為節點、關係為邊的結構化知識庫 |
| 三元組 | Triple | 知識圖譜的基本單位:主體—謂語—客體 |
| 實體 | Entity | 知識圖譜中的節點,代表現實世界的人事物 |
| 關係 | Relation / Predicate | 連接兩個實體的語義關係 |
| 實體抽取 | Named Entity Recognition (NER) | 從文本中辨識實體的技術 |
| 關係抽取 | Relation Extraction | 識別實體間語義關係的技術 |
| 知識融合 | Knowledge Fusion / Entity Alignment | 合併不同來源中描述相同實體的技術 |
| 圖神經網路 | Graph Neural Network (GNN) | 專門處理圖結構資料的深度學習架構 |
| 訊息傳遞 | Message Passing | GNN 中節點從鄰居收集資訊並更新嵌入的機制 |
| 圖卷積網路 | Graph Convolutional Network (GCN) | 最基礎的 GNN 架構,基於正規化鄰居平均 |
| 圖注意力網路 | Graph Attention Network (GAT) | 引入注意力機制為不同鄰居賦予不同權重 |
| 歸納學習 | Inductive Learning | 訓練後能對未見節點進行預測的學習方式 |
| 直推學習 | Transductive Learning | 需要在訓練時看到所有節點的學習方式 |
| 節點嵌入 | Node Embedding | 將節點的結構與特徵壓縮成固定長度向量的表示 |
| 連結預測 | Link Prediction | 預測圖中兩個節點之間是否存在邊 |
四、考試重點提示
考試重點:以下是 iPAS 人工智慧考試中與知識圖譜和 GNN 相關的高頻考點:
- 知識圖譜的三元組格式:(主體 Subject)→ [謂語 Predicate] →(客體 Object),是知識表示的基本單位
- 建構知識圖譜的三步驟:實體抽取(NER)→ 關係抽取(Relation Extraction)→ 知識融合(Entity Alignment)
- GNN 的訊息傳遞機制:每個節點從鄰居聚合資訊並更新自身嵌入;堆疊 L 層 = 捕捉 L 跳範圍的圖結構
- GCN vs GAT 的差異:GCN 對所有鄰居平均聚合;GAT 透過注意力機制自動學習鄰居的重要性權重
- GraphSAGE 的優勢:支援 Inductive Learning,可對未見過的新節點預測;採樣機制適合大型圖
- AlphaFold 2 與圖結構:蛋白質預測是 GNN 的標誌性應用,胺基酸序列視為圖,注意力機制推理三維結構
- GNN vs 傳統 ML:傳統 ML 假設樣本獨立,無法直接利用連結關係;GNN 的核心優勢是從圖拓樸結構中自動學習關係特徵
Q1. 知識圖譜中的「三元組(Triple)」結構,其標準格式為下列哪一種?
- A. 節點 → 邊 → 子圖
- B. 主體(Subject)→ 謂語(Predicate)→ 客體(Object)
- C. 特徵 → 標籤 → 模型
- D. 輸入 → 隱藏層 → 輸出
Q2. 在建構知識圖譜的流程中,「知識融合(Knowledge Fusion)」的主要目的是?
- A. 從文本中抽取人名、地名等實體
- B. 建立實體之間的語義關係
- C. 將不同來源中描述同一實體的多種表達合併為單一節點
- D. 將知識圖譜轉換為向量嵌入
Q3. 圖神經網路(GNN)的「訊息傳遞機制(Message Passing)」中,堆疊 3 層 GNN 意味著每個節點能接收到來自幾跳(hop)以內鄰居的資訊?
- A. 1 跳
- B. 2 跳
- C. 3 跳
- D. 無限跳
Q4. 下列哪一個 GNN 架構透過注意力機制,讓模型自動學習「哪些鄰居更重要」,而非對所有鄰居一視同仁地加權?
- A. GCN(Graph Convolutional Network)
- B. GraphSAGE
- C. GAT(Graph Attention Network)
- D. Word2Vec
Q5. 下列關於 GNN 與傳統機器學習的比較,何者最正確?
- A. 傳統機器學習能自動利用節點間的連結關係,GNN 則不能
- B. GNN 假設每個樣本獨立同分布,傳統機器學習則不做此假設
- C. 傳統機器學習適合處理有明顯圖結構的詐欺環偵測問題,GNN 則適合表格資料
- D. 傳統機器學習假設樣本獨立,難以直接利用連結關係;GNN 從圖的拓樸結構中自動學習關係特徵
解答與解析
| 題號 | 答案 | 解析 |
|---|---|---|
| Q1 | B | 知識圖譜的基本單位是三元組,格式為「主體 → 謂語 → 客體」,例如「愛因斯坦 → 獲得 → 諾貝爾物理學獎」。這是知識表示的標準 RDF(Resource Description Framework)格式。 |
| Q2 | C | 知識融合(又稱 Entity Alignment)的目標是識別並合併不同來源中指向同一現實實體的多種表達,例如「TSMC」、「台積電」、「台灣積體電路製造公司」應合併為同一節點。 |
| Q3 | C | 每堆疊一層 GNN,每個節點的感受野(Receptive Field)就向外擴展一跳。堆疊 3 層代表每個節點能接收到 3 跳以內所有鄰居的資訊。 |
| Q4 | C | GAT(Graph Attention Network)在聚合鄰居資訊時引入注意力機制,為不同鄰居計算注意力係數(Attention Coefficient),讓模型自動學習鄰居的相對重要性,而非如 GCN 般固定平均。 |
| Q5 | D | 傳統機器學習(如決策樹、XGBoost)預設樣本獨立同分布,需要手工設計關係特徵。GNN 的核心優勢是直接從圖的拓樸結構(節點連結方式)中自動學習特徵,能捕捉傳統方法難以表達的關係資訊。 |