ANGELA JIAN
LOADING
回到課程總覽
第 35 篇 L11101 AI 應用專題

知識圖譜與圖神經網路 GNN:讓 AI 理解「關係」

Angela Jian
Angela Jian 簡琬庭
iPAS AI 應用規劃師 / AI Product Builder

一、學習目標

完成本單元後,你將能夠:

  1. 說明知識圖譜的定義與三元組(Triple)結構
  2. 解釋圖神經網路(GNN)中訊息傳遞(Message Passing)的運作原理
  3. 比較 GCN、GraphSAGE、GAT 三種主要 GNN 架構的特色
  4. 說明為何傳統機器學習難以處理圖結構資料
  5. 列舉知識圖譜與 GNN 的主要應用場景

二、核心內容

1. 什麼是知識圖譜?

知識圖譜(Knowledge Graph)是一種以「實體(Entity)」為節點、以「關係(Relationship)」為邊的圖結構知識庫,用來儲存和表示現實世界中大量的結構化知識。

生活類比:知識圖譜就像一張超大型的心智圖(Mind Map)。在普通心智圖裡你可能寫「台積電 → 生產 → 晶片」;知識圖譜裡則有數十億個這樣的「誰 → 做了什麼 → 對誰」的連結,而且每個實體可以同時連結到數百個其他實體,形成一個龐大的知識網絡。

Google Knowledge Graph 的例子

當你在 Google 搜尋「愛因斯坦」,右側出現的「知識卡片」就來自 Google Knowledge Graph。它顯示:

  • 愛因斯坦(實體)出生於 德國烏爾姆(實體)
  • 愛因斯坦(實體)獲得 諾貝爾物理學獎(實體)
  • 愛因斯坦(實體)提出 相對論(實體)
  • 愛因斯坦(實體)任職於 普林斯頓高等研究院(實體)

這種結構讓搜尋引擎不只「找網頁」,而是真正「理解知識」。


2. 三元組結構:知識圖譜的基本單位

知識圖譜的最小單位是三元組(Triple),格式為:

(主體 Subject) → [謂語 Predicate] → (客體 Object)
主體(Subject)謂語(Predicate)客體(Object)
台積電總部位於新竹
黃仁勳擔任 CEO 的公司NVIDIA
阿斯匹靈治療頭痛
AlphaFoldDeepMind 開發

生活類比:三元組就像一句話的主謂賓結構。「主體做了什麼事(謂語)對誰(客體)」——這正是人類語言描述關係最自然的方式,也是知識的最小原子。


3. 如何建構知識圖譜?

建構知識圖譜涉及三個主要步驟:

步驟一:實體抽取(Entity Extraction / Named Entity Recognition)

從非結構化文本中辨識出實體,例如人名、地名、組織名稱、產品名稱等。

:從「台積電在 2024 年啟用位於亞利桑那州的晶圓廠」中,抽取出「台積電」(組織)、「2024 年」(時間)、「亞利桑那州」(地點)、「晶圓廠」(設施)。

步驟二:關係抽取(Relation Extraction)

辨識實體之間的語義關係,建立三元組連結。

:從上句中,建立「台積電 → 啟用 → 晶圓廠」、「晶圓廠 → 位於 → 亞利桑那州」兩個三元組。

步驟三:知識融合(Knowledge Fusion / Entity Alignment)

不同資料來源可能用不同方式描述同一個實體(例如「TSMC」與「台積電」、「台灣積體電路製造公司」指的是同一個公司),知識融合將這些重複實體合併,維護知識圖譜的一致性。

步驟技術目標
實體抽取NER(命名實體辨識)識別文本中的關鍵實體
關係抽取Relation Extraction找出實體間的語義關係
知識融合Entity Alignment跨來源合併相同實體

考試重點:知識圖譜的建構三步驟——實體抽取、關係抽取、知識融合——是考試高頻出題點。


4. 什麼是圖神經網路(GNN)?

圖神經網路(Graph Neural Network, GNN) 是一種專門處理「圖結構資料(Graph-Structured Data)」的深度學習架構。

為什麼需要 GNN?

傳統機器學習(如表格資料 + XGBoost)假設每個樣本是「獨立且同分布」的,但現實中大量資料有天然的圖結構,樣本之間的連結關係(Edges)本身就是重要資訊

資料類型節點(Node)邊(Edge)若忽略連結關係的損失
社群網路使用者好友關係無法利用「共同朋友」等社群訊號
分子結構原子化學鍵無法理解分子的空間結構與特性
知識圖譜實體語義關係無法進行關係推理與知識補全
交通網路路口 / 站點道路無法預測交通流量的連鎖效應
金融詐欺帳戶轉帳關係無法識別詐欺環形網路

生活類比:把一個社群網路拆解成獨立的使用者清單,就像把一幅拼圖的碎片混進一個大袋子裡——每塊碎片的顏色和形狀你都看得到,但碎片之間的連接關係(哪塊碎片接哪塊)消失了,你永遠拼不回完整的圖。GNN 的價值就是同時利用節點本身的特徵(碎片的顏色)與節點之間的關係(碎片如何拼接)。


5. GNN 的核心:訊息傳遞機制(Message Passing)

GNN 的工作原理是訊息傳遞(Message Passing):每個節點從它的鄰居(Neighbors)蒐集資訊,更新自己的表示(Embedding)。

一輪訊息傳遞的步驟:

1. 聚合(Aggregate):每個節點收集所有鄰居節點的當前嵌入
2. 更新(Update):  將自身嵌入與聚合的鄰居資訊合併,產生新的嵌入
3. 重複:           堆疊多層(L 層),讓每個節點接收到 L 跳(L-hop)以外的資訊

生活類比:訊息傳遞就像八卦在社群中傳播。第一輪,你只知道直接認識的朋友在做什麼(1-hop);第二輪,你朋友告訴你他們的朋友的事(2-hop);疊加多層之後,你就對整個社群網路有了全局認識。

重複 L 層訊息傳遞後,每個節點的嵌入就包含了以它為中心、半徑 L 的子圖結構資訊。

考試重點:GNN 的訊息傳遞機制是核心考點——「每個節點從鄰居聚合資訊並更新自身嵌入」,以及堆疊 L 層代表能捕捉 L 跳之內的圖結構資訊。


6. 三大 GNN 架構比較

GCN(Graph Convolutional Network)

GCN 是 2016 年由 Kipf & Welling 提出的最基礎 GNN 架構,將影像 CNN 的卷積概念推廣到圖上。每個節點的新嵌入等於自身與所有鄰居嵌入的加權平均(以節點度數做正規化)。

特點:簡單高效、需要整個圖同時在記憶體中(Transductive,歸納場景較差)

GraphSAGE(Graph Sample and AggreGatE)

GraphSAGE 改進 GCN 的兩個缺點:首先,它採用「採樣」策略——每次只聚合固定數量的鄰居,而非全部鄰居,使其能夠擴展到大型圖;其次,它支援 Inductive Learning(歸納學習),即訓練後能對沒見過的新節點進行預測。

生活類比:GCN 像是開全員大會(所有人都要到場),GraphSAGE 像是抽樣問卷(隨機訪問部分人),後者能在大公司(大型圖)中更有效率地蒐集意見。

GAT(Graph Attention Network)

GAT 在聚合鄰居資訊時引入注意力機制(Attention),讓模型自動學習「哪些鄰居更重要」,而非對所有鄰居一視同仁地平均。

生活類比:GAT 就像 GNN 版本的 Multi-Head Attention——開會時,你自然會更重視某些同事的意見(他們和你的任務更相關),而不是平均對待每個人說的話。

架構聚合方式能否處理新節點?特點
GCN固定加權平均(正規化)否(Transductive)簡單基準,適合小圖
GraphSAGE採樣 + 可選聚合函數是(Inductive)適合大型圖、動態圖
GAT注意力加權聚合自動學習鄰居重要性

7. 應用場景

社群網路分析(Social Network Analysis)

  • 社群偵測(Community Detection):找出關係緊密的使用者群體
  • 連結預測(Link Prediction):預測「你可能認識」的朋友推薦
  • 影響力分析(Influence Analysis):找出社群中的意見領袖

蛋白質結構預測(Protein Structure Prediction)

DeepMind 的 AlphaFold 2 將蛋白質中的胺基酸序列視為圖(節點為胺基酸,邊為鍵結關係),使用基於注意力機制(Evoformer,類 Transformer)的圖推理技術,成功在極高精度下預測蛋白質的三維空間結構,被視為生物資訊學的革命性突破。

生活類比:蛋白質就像一條長鏈,鏈上每顆珠子(胺基酸)互相影響彼此的空間位置。傳統方法要 X 光晶體學實驗做數年;AlphaFold 用圖推理在幾分鐘內預測完成。

金融詐欺偵測(Fraud Detection)

把帳戶當節點、轉帳行為當邊,GNN 可以識別傳統機器學習無法察覺的「詐欺環(Fraud Ring)」——即多個帳戶互相轉帳形成的循環洗錢結構。

藥物探索(Drug Discovery)

將分子表示為圖(原子為節點,化學鍵為邊),GNN 可以預測分子的化學性質、藥物與靶點的結合親和力(Binding Affinity),大幅加速新藥開發。

供應鏈與推薦系統

  • 供應鏈風險:以供應商為節點、採購關係為邊,預測供應中斷的連鎖效應
  • 推薦系統:以用戶和商品為二部圖節點,邊為互動行為,圖協同過濾(Graph Collaborative Filtering)比矩陣分解更能利用用戶社群結構

8. 傳統 ML vs GNN:能力對比

比較維度傳統機器學習(如 XGBoost)圖神經網路(GNN)
資料假設樣本獨立同分布(i.i.d.)節點之間有顯式連結關係
特徵輸入結構化表格特徵節點特徵 + 圖的拓樸結構
關係建模需手工設計關係特徵自動從圖結構中學習
擴展性適合大規模表格資料適合大型稀疏圖(GraphSAGE)
可解釋性較高(如特徵重要性)較低(注意力權重可部分解釋)
典型場景金融風控(用戶層面)、廣告預測詐欺環偵測、蛋白質預測、知識圖譜推理

三、關鍵名詞中英對照

中文英文說明
知識圖譜Knowledge Graph以實體為節點、關係為邊的結構化知識庫
三元組Triple知識圖譜的基本單位:主體—謂語—客體
實體Entity知識圖譜中的節點,代表現實世界的人事物
關係Relation / Predicate連接兩個實體的語義關係
實體抽取Named Entity Recognition (NER)從文本中辨識實體的技術
關係抽取Relation Extraction識別實體間語義關係的技術
知識融合Knowledge Fusion / Entity Alignment合併不同來源中描述相同實體的技術
圖神經網路Graph Neural Network (GNN)專門處理圖結構資料的深度學習架構
訊息傳遞Message PassingGNN 中節點從鄰居收集資訊並更新嵌入的機制
圖卷積網路Graph Convolutional Network (GCN)最基礎的 GNN 架構,基於正規化鄰居平均
圖注意力網路Graph Attention Network (GAT)引入注意力機制為不同鄰居賦予不同權重
歸納學習Inductive Learning訓練後能對未見節點進行預測的學習方式
直推學習Transductive Learning需要在訓練時看到所有節點的學習方式
節點嵌入Node Embedding將節點的結構與特徵壓縮成固定長度向量的表示
連結預測Link Prediction預測圖中兩個節點之間是否存在邊

四、考試重點提示

考試重點:以下是 iPAS 人工智慧考試中與知識圖譜和 GNN 相關的高頻考點:

  1. 知識圖譜的三元組格式:(主體 Subject)→ [謂語 Predicate] →(客體 Object),是知識表示的基本單位
  2. 建構知識圖譜的三步驟:實體抽取(NER)→ 關係抽取(Relation Extraction)→ 知識融合(Entity Alignment)
  3. GNN 的訊息傳遞機制:每個節點從鄰居聚合資訊並更新自身嵌入;堆疊 L 層 = 捕捉 L 跳範圍的圖結構
  4. GCN vs GAT 的差異:GCN 對所有鄰居平均聚合;GAT 透過注意力機制自動學習鄰居的重要性權重
  5. GraphSAGE 的優勢:支援 Inductive Learning,可對未見過的新節點預測;採樣機制適合大型圖
  6. AlphaFold 2 與圖結構:蛋白質預測是 GNN 的標誌性應用,胺基酸序列視為圖,注意力機制推理三維結構
  7. GNN vs 傳統 ML:傳統 ML 假設樣本獨立,無法直接利用連結關係;GNN 的核心優勢是從圖拓樸結構中自動學習關係特徵

隨堂小測驗

Q1. 知識圖譜中的「三元組(Triple)」結構,其標準格式為下列哪一種?

  • A. 節點 → 邊 → 子圖
  • B. 主體(Subject)→ 謂語(Predicate)→ 客體(Object)
  • C. 特徵 → 標籤 → 模型
  • D. 輸入 → 隱藏層 → 輸出

Q2. 在建構知識圖譜的流程中,「知識融合(Knowledge Fusion)」的主要目的是?

  • A. 從文本中抽取人名、地名等實體
  • B. 建立實體之間的語義關係
  • C. 將不同來源中描述同一實體的多種表達合併為單一節點
  • D. 將知識圖譜轉換為向量嵌入

Q3. 圖神經網路(GNN)的「訊息傳遞機制(Message Passing)」中,堆疊 3 層 GNN 意味著每個節點能接收到來自幾跳(hop)以內鄰居的資訊?

  • A. 1 跳
  • B. 2 跳
  • C. 3 跳
  • D. 無限跳

Q4. 下列哪一個 GNN 架構透過注意力機制,讓模型自動學習「哪些鄰居更重要」,而非對所有鄰居一視同仁地加權?

  • A. GCN(Graph Convolutional Network)
  • B. GraphSAGE
  • C. GAT(Graph Attention Network)
  • D. Word2Vec

Q5. 下列關於 GNN 與傳統機器學習的比較,何者最正確?

  • A. 傳統機器學習能自動利用節點間的連結關係,GNN 則不能
  • B. GNN 假設每個樣本獨立同分布,傳統機器學習則不做此假設
  • C. 傳統機器學習適合處理有明顯圖結構的詐欺環偵測問題,GNN 則適合表格資料
  • D. 傳統機器學習假設樣本獨立,難以直接利用連結關係;GNN 從圖的拓樸結構中自動學習關係特徵

解答與解析

題號答案解析
Q1B知識圖譜的基本單位是三元組,格式為「主體 → 謂語 → 客體」,例如「愛因斯坦 → 獲得 → 諾貝爾物理學獎」。這是知識表示的標準 RDF(Resource Description Framework)格式。
Q2C知識融合(又稱 Entity Alignment)的目標是識別並合併不同來源中指向同一現實實體的多種表達,例如「TSMC」、「台積電」、「台灣積體電路製造公司」應合併為同一節點。
Q3C每堆疊一層 GNN,每個節點的感受野(Receptive Field)就向外擴展一跳。堆疊 3 層代表每個節點能接收到 3 跳以內所有鄰居的資訊。
Q4CGAT(Graph Attention Network)在聚合鄰居資訊時引入注意力機制,為不同鄰居計算注意力係數(Attention Coefficient),讓模型自動學習鄰居的相對重要性,而非如 GCN 般固定平均。
Q5D傳統機器學習(如決策樹、XGBoost)預設樣本獨立同分布,需要手工設計關係特徵。GNN 的核心優勢是直接從圖的拓樸結構(節點連結方式)中自動學習特徵,能捕捉傳統方法難以表達的關係資訊。