王麗蓉/永續整合策略工作者
美國國防體系導入人工智慧(AI)的新聞近來引發廣泛討論。美國五角大廈與 Anthropic 公司簽約,將其開發的大型語言模型「Claude」部署於機密軍事網路中。這套系統被定位為「進入戰情室的 AI 顧問」,負責情資整合、目標辨識乃至戰爭推演等高度敏感任務。Claude 的此一應用已逼近核武升級與決策邊界,引發外界對「AI 參與戰略決策」的深切疑慮,以及相關ESG議題的討論。
從表面看,這似乎是科技與國安的立場差異。但從ESG的永續治理視角來看,這個案例更值得思考的是:當 AI 被放進戰情室之前,人類是否具備了足以支撐技術的「AI 素養」與「使用環境設計」?
被悄悄框定的決策空間
我們必須區分兩件事:一是 AI 技術本身,二是我們在制度與文化上如何配置它。AI 技術的進步以運算速度和準確度為衡量標準,但「AI 素養」談的是:我們是否清楚定義系統在決策流程中的位置?
以 Claude 為例,當它協助分析敵情並提出行動建議時,實際上已介入了「設計選項」的工作。即使最終拍板的是人類,但當 AI 在前端篩選資訊、排列優先順序時,人類的選擇空間已被悄悄框定。如果在導入前,沒有討論「哪些層級必須保留給人類集體討論」,一旦風險出現,我們就只能在「全面信任」與「全面抽離」兩個極端搖擺。
從 ESG 視角建構 AI 治理環境
從公共治理與企業永續的角度來看,導入 AI 並非單純添購工具,而是必須先設計好一整個「使用環境」。這與 ESG(環境、社會、公司治理) 的核心精神不謀而合。面對 AI 帶來的權力移轉,我們應從以下維度進行「環境設計」:
第一,公司治理(Governance):確立角色與邊界 任何高風險領域的 AI 系統,都應具備明確的「人類保留區」。在治理框架中,必須寫下哪些決策——如武力升級、醫療診斷紅線或金融系統性風險——無論技術多成熟,都必須由人類團隊親自負責。此外,必須設計「退出機制」,預先設定風險指標,一旦觸發,系統需自動降級或改為人工覆核。
第二,社會責任(Social):建立監督與紀錄機制 在民主社會中,AI 參與關鍵決策必須具備可追溯性。每一次建議的輸出與採納,都應作為未來學習與檢討的素材。這不僅是管理需要,更是建立公共信任的基礎。當社會大眾理解 AI 如何影響生活,才能真正建立數位時代的社會韌性。
AI 素養:照映治理能力的鏡子
面對 AI,社會最需要的或許不是驚嘆或恐懼,而是更成熟的集體態度:在技術全面進場前,就先提出困難的問題—我們要如何與 AI 共用決策權?哪些風險是我們不願意交付的?
當我們把「AI 素養」視為社會整體的基礎能力,而非僅屬於工程師的專業知識時,社會才能在面對新技術時,既不盲目追隨,也不只剩下事後懊惱。新的社群生活已經包含了與 AI 的深度互動,AI 對人所造成的影響,已成為 ESG 中最重要的一環。
真正決定 AI 走向何處的,仍然是我們如何設計環境、如何理解並監督它們。在這個意義上,AI 不是取代人類決策的主角,而是一面照映出人類集體素養與治理能力的鏡子。唯有釐清邊界,並將 AI 治理納入永續發展的核心,我們才能在掌握決策權的同時,確保科技真正服務於人類社會的長期利益。
※以上言論不代表梅花媒體集團立場※
