張凱鈞/綠色AI算力聯盟會長
立法院於2025年12月24日三讀通過《人工智慧基本法》,象徵台灣正式邁入以法律框架治理人工智慧(AI)的時代,也為台灣未來AI發展奠定制度基礎。但法案上路並不等同於治理完備。此次立法雖納入資料治理、個資與隱私、資安與風險等原則性規範,表面上回應了社會對AI安全與人權保障的期待,但若與歐盟已正式施行的《人工智慧法》相比,不難發現,台灣在資安與風險治理上的法律設計仍顯薄弱,許多關鍵問題仍停留在高度抽象與宣示層次,尚未形成可操作、可監督的制度架構。這樣的結構性落差,反映出整體立法思維在風險治理、資安責任與產業規範上的不足,本文將作為系列評論的第一篇,先從最基礎卻最關鍵的「AI生命週期資安治理」談起。
我國《人工智慧基本法》雖於第4條將資安列為原則,但具體落實僅見於第5條,著重於避免侵害人民權益、提供驗證工具及徵詢利害關係人。此種立法思維,似乎將AI資安簡化為「驗證是否合規」的問題,卻忽略AI系統本質上是一個高度動態、可被攻擊與操縱的複合系統。從訓練資料遭投毒、模型被竄改,到推論階段的對抗性攻擊與基礎設施癱瘓,AI的風險並非一次性檢測即可排除。
相較之下,歐盟《人工智慧法》已明確將資安納入AI系統整個生命週期的強制防護要求。無論是通用AI模型或高風險AI應用,均須持續進行資安風險評估與緩解,定期識別漏洞並測試對抗性攻擊,同時確保系統與實體基礎設施具備足夠的防護等級。更重要的是,歐盟進一步要求建立資安事件的監控、即時通報與應變機制,將「出事後怎麼辦」納入法制設計。
反觀我國現行法制,對於AI系統遭遇資安事件後的偵測、通報、演練與復原,幾乎未設任何明確義務。這意味著,一旦AI系統成為攻擊目標,政府與企業究竟是否具備即時應變能力,法律並未給出答案。此種制度空白,不僅削弱AI治理的可信度,也可能在關鍵基礎設施、金融、醫療等場域,放大資安事件的社會衝擊。
AI治理若僅止於原則宣示,而未納入完善的資安管理,等同在高速發展的技術列車上,卻未裝設完整的煞車與防護系統。《人工智慧基本法》作為起點固然重要,但若不儘速補強AI的資安防護義務,其所標榜的「安全可信AI」,恐怕仍停留在政策口號階段。這也將會是未來台灣發展AI時亟需正視與補強的關鍵課題。
