近年來,人工智慧技術在文字理解與語意比對上取得長足進展,Embedding、相似度搜尋與大型語言模型(Large Language Model,LLM)已成為企業系統中常見的技術元件。然而,在實際導入企業核心流程 — 特別是涉及法遵、風險控管與對外責任的場景時,許多組織逐漸發現一個關鍵問題:
AI 的輸出可以很聰明,但卻說不清楚「為什麼」。
當系統結果需要接受內部稽核、主管審查,甚至是外部監管機構檢視時,單純依賴黑箱式推論,往往會帶來治理與責任上釐清的風險。本篇文章將分享資通電腦在實務專案中,如何以 Knowledge Graph(知識圖譜)為核心,設計一套可治理、可解釋、可回溯的智慧比對架構,讓 AI 成為輔助者,而非決策黑箱。
一、黑箱式 AI 在企業法遵與風險控管場景的三個結構性問題
在多數企業導入初期,常見的作法包括關鍵字比對、Embedding 相似度排序,或直接以 LLM 給出結論。然而,這些方法在企業級應用中,往往面臨以下限制:
1. 決策不可回溯:
系統難以準確並清楚說明「命中依據為何」、「使用了哪些資料」、「是否符合內部規範」。2. 責任邊界模糊:
當結果錯誤或產生爭議時,無法清楚區分是資料問題、模型問題,還是政策設計問題。3. 稽核與法遵成本高:
黑箱輸出通常需要大量人工補充說明,反而增加營運風險與成本。
這些問題並非模型能力不足,而是系統設計方向本身並未以治理為前提。
二、以可治理 AI 架構回應企業級法遵與稽核的三項核心挑戰
針對上述企業級應用中常見的三項結構性問題,本系統並非透過增加模型複雜度來解決,而是從架構與責任分層設計著著手,將可治理性納入系統的核心設計目標。
-
1. 解決「決策不可回溯」:Knowledge Graph 證據鏈(Evidence Path)取代黑箱結論
本系統所有比對與判斷,皆建立在 Knowledge Graph 所定義的節點、關係與規則之上,並於每一次決策同步產出完整的 Evidence Path(證據鏈),其內容包含:- 命中的知識節點(如法條、分類、定義)
- 實際使用的關聯關係
- 觸發判斷的政策規則與條件
「此判斷是依據哪些知識、透過哪些規則所產生?」
使每一項決策具備可回溯、可驗證、可重現的特性,能直接支援稽核與內控需求。 -
2. 解決「責任邊界模糊」:清楚劃分資料、模型與政策角色
在系統架構設計上,本系統明確區分三個層次的責任邊界:- 資料層(Knowledge Graph):
負責定義可被引用的事實、法條、分類與關聯,並具備版本控管與可追溯性。 - 模型層(AI / LLM):
僅用於語意理解、候選生成與輸入補強,不參與最終判斷。 - 政策層(Policy Engine):
依據企業內部規範,對證據進行判讀並產生結論。
透過此一責任分層設計,當結果產生爭議時,系統能清楚辨識問題來源,避免將所有風險不當歸因於 AI 模型本身。
- 資料層(Knowledge Graph):
-
3. 解決「稽核與法遵成本高」:將可解釋性(Explainable AI)納入系統輸出的一部分
本系統將「可解釋性」視為系統設計的基本要求,而非事後補充。系統於輸出結果時,即已包含:- 判斷所依據的條文與規則
- 完整的證據路徑
- 對應的政策邏輯
- Knowledge Graph 為唯一事實來源(Single Source of Truth):所有比對與判斷,必須建立在結構化、可驗證的知識節點與關係之上。
- 決策流程必須可解釋、可回溯:每一個結果,都需要能回答「為什麼是這個結論」。
- AI 只輔助語意補強,不參與最終裁決:LLM 用於理解使用者語句與補齊語意,而非直接給出判斷。
- Fail-closed(證據不足不放行),而非信心導向:當證據不足或存在歧義時,系統應傾向保守,而非由 AI 主觀式推論。
-
1. 輸入與正規化層(Input & Normalization)
將使用者輸入轉換為結構化語意單元,避免雜訊與語言差異直接影響後續比對。 -
2. 知識比對層(KG-based Matching)
所有查詢皆透過 Knowledge Graph 中已定義的節點、關係與規則進行明確比對,而非純粹的相似度距離計算。 -
3. 證據生成層(Evidence Generation)
本系統會同步產出命中的知識節點、關聯路徑與適用規則,形成完整的證據鏈。 -
4. 決策政策層(Policy Engine)
依據企業內部定義的政策規則,對證據進行判讀,產生可治理的最終結果。 - 相似度是連續值,缺乏明確界線
相似度代表「語意接近程度」,並非為「是否符合某個明確條件」的充分證據。 - 不同模型版本可能導致結果不一致
在 embedding / LLM 系統中,相同輸入在不同模型版本下,得到不同相似度分數或排序,乃正常現象,而且是結構性必然的結果。 - 無法對外說明「法律或制度依據」
當追問判定『命中』的法律依據為何時,系統實際給出的回答卻是:「模型覺得語意很像」。然而,這兩件事在制度層級上屬於完全不同的判斷依據。 - 單純增加硬體資源,無法根本解決結構性問題
- 不受控的 top-k 查詢,反而會放大證據分成與解釋成本
- 真正有效的改善,來自於查詢流程、證據層級與治理邏輯的重新設計
- 可稽核、可交付的系統輸出
- 清楚的責任與決策邊界
- 降低人工覆核與法遵風險
- 可長期維運與擴充的基礎架構
三、設計原則:從「聰明」轉向「可負責」
在架構設計中,首先確立了幾項核心原則:
這些原則共同構成了一套「以治理為核心」的系統哲學。
四、以 Knowledge Graph 為核心的企業級智慧比對架構
整體架構可分為四個主要層次:
五、為何不使用相似度做最終判斷?
相似度搜尋非常適合用於「候選縮減」與「語意探索」,但不適合作為企業決策的最後一道關卡,原因在於:
因此,我們選擇將相似度與 LLM 僅用於前置處理與語意補強,真正的判斷則必須回到 Knowledge Graph 中的明確結構與規則。
六、實務經驗:企業級 AI 架構設計比擴張硬體更重要
在高風險、複雜查詢情境下,我們曾遇到效能瓶頸與解釋成本急遽上升的問題。實務經驗顯示:
這再次驗證了一個事實:企業級 AI 系統的核心競爭力,並不在於模型規模或硬體投入,而在於整體架構是否具備理性、可治理與可持續演進的能力。
七、可治理 AI 架構對企業的實際價值
這樣的設計,為企業帶來以下實質效益:
更重要的是,它讓 AI 成為一個可信任的輔助工具,而非無法說明的風險來源。
AI 治理(AI Governance),是企業級 AI 的起點,而非負擔
AI 技術的進步,讓系統可以「看起來很聰明」;但在實務的企業運用場景中,真正重要的,是系統是否值得信任。資通電腦在相關專案實踐中,選擇以 Knowledge Graph 為核心的可治理架構,為創新建立可長期運營且信任的基礎。
資通將持續深化 Knowledge Graph 為核心的可治理 AI(AI Governance)架構研究,聚焦於可解釋性(Explainable AI)、證據鏈管理與企業級政策引擎整合等關鍵技術。面對金融與法遵場景對信任與責任的要求,資通將以實務經驗為基礎,推動企業級 AI 架構的穩健落地。
延伸閱讀: