數位專欄
吳漢章
吳漢章為華碩雲端暨台智雲總經理。負責AI、雲端事業之營運,以AIHPC高效算力推動AI創新與產業化,協助資訊科技與產業整合、數位轉型。 擔任中華民國資訊軟體服務商業同業公會理事、行政院智慧國家推動小組民間諮詢委員會委員、台灣雲端運算產業協會監事暨政策法制委員會副主任委員、經濟部生技醫藥產業發展推動小組委員、台灣醫學資訊學會理事、TCA AI大聯盟會長、人工智慧科技基金會董事及擔任多項政府專案與計畫主持人。
這不僅是技術問題,更是社會信任的重建議題。AI的進化若缺乏信任機制支撐,終將像沙上建塔,再高也難以長久。
一、從效率導向到信任導向的時代轉折
過去十年,AI的競爭焦點在「誰的模型更強」。
各國與企業投注巨資於訓練更大型的模型、堆疊更強大的GPU集群,以追求速度與準確率。但當AI真正走入公共領域——醫療、教育、城市治理——人們發現真正的挑戰不是「能不能算」,而是「能不能被信任」。
舉例來說,一個醫療AI若誤判病症,責任由誰承擔?一個自駕AI若因資料偏差而導致交通事故,應追究企業、開發者還是資料提供者?AI正在從技術創新跨入倫理與治理的領域,社會因此從「效率導向」逐步轉向「信任導向」的新時代。
二、AI信任的三個層面:資料、系統與治理
AI的可信度建立在三大基石上:資料可信、系統可信、治理可信。
1. 資料可信(Trusted Data)
資料是AI的燃料。若資料被污染、偏見未校正、或授權不明確,AI的結果再精密也無法令人信服。
因此,資料治理成為AI信任的起點。從「資料血緣追蹤(Data Lineage)」到「條件式授權(Conditional Consent)」的實踐,都在確保AI用到的每一筆資料皆可被追溯、可被稽核、且取得當事人同意。這樣的透明性是讓社會願意開放資料、共享智慧的前提。
2. 系統可信(Trusted System)
AI系統必須能被理解與檢驗。可解釋性(Explainability)讓人類知道AI「為什麼這樣判斷」;安全性(Security)確保AI不被惡意操控;穩定性(Reliability)保證AI在不同情境下表現一致。
當AI不再是「黑箱」,而成為「可審視的智慧」,信任才有立足之地。
3. 治理可信(Trusted Governance)
技術之外,還需要制度。AI的倫理委員會、模型責任歸屬、資料跨域交換的監理架構,都屬於治理層面的信任設計。
政府與企業必須合作,建立AI透明原則與稽核標準,使AI的發展不只是「合法」,更是「可負責」。這種制度化的信任,正是AI得以融入社會體系的保險絲。
三、從個體信任到集體信任:主權AI的啟示
在全球AI版圖中,算力與資料逐漸集中於少數跨國巨頭之手。對中小國而言,這意味著風險——AI不只是技術依賴,更可能演變為「數據主權」與「認知主權」的喪失。
因此,主權AI(Sovereign AI) 的概念應運而生。它強調一個國家必須擁有自主的AI運算基礎、模型研發能力與可信資料空間,確保本地資料留在本地、演算法可控、應用可信。這不僅是一場科技競賽,更是一場信任基礎建設的競賽:誰能建立可被信賴的AI生態系,誰就能掌握未來的數位主權。
四、信任是AI時代的新競爭力
隨著AI滲透社會運作的每一層,信任不再只是「附屬條件」,而成為新的經濟資產。企業若能提供「可稽核的AI API」、建立「資料可控的雲端平台」、或推出「信任即服務(Trust as a Service)」模式,將在AI產業鏈中創造長期優勢。
對政府而言,可信任AI的推廣將決定民眾對公共AI的接受度;對企業而言,信任是品牌的核心競爭力;對個人而言,信任則是願意與AI共生的基礎。
AI時代的信任,不再只是一種信念,而是一種可被設計、可被驗證、可被量化的能力。
五、結語:讓AI值得被信任
AI的發展不該以犧牲信任為代價。真正的進步,是在效率與信任之間取得新的平衡。信任不是AI創新的剎車,而是加速器——它讓更多人願意共享資料、採用AI、並參與其演化。當我們能建立從技術到制度、從企業到國家、從個人到集體的「全棧信任架構」,AI將不只是人類的工具,而是人類信任的夥伴。
讓AI值得被信任,也讓人類的未來更值得期待。
(本篇文章轉載於今周刊專欄)