【梅花評論】AI無人戰場正在成形 國際法跟得上嗎?

AI驅動無人機轉型無人機防禦策略。圖/取自Lockheed Martine 官網
AI驅動無人機轉型無人機防禦策略。圖/取自Lockheed Martine 官網

李魚豪/亞太安全與戰略研究獨立工作室研究員

當無人機在失去通訊後,仍能依照內建系統持續搜索、辨識甚至攻擊目標時,戰場上的「決策」,還是由人類作出的嗎?

隨著人工智慧(AI)、自主無人系統與各型無人載具快速投入軍事應用,國際法正面臨新的挑戰。長期以來,規範武裝衝突的法律體系,建立在人類能對武力使用進行判斷與控制的前提上。但現在,部分系統已能在缺乏即時人為操作下自行執行任務,戰場正從「人類決策」逐漸走向「系統預設」。

這也是國際法目前最難處理的問題之一。

根據《日內瓦第一附加議定書》第36條,各國在研發或部署新武器時,必須確認其使用是否違反國際法。換言之,即使是AI自主系統,各國仍有武器合法性審查義務。

問題在於,AI系統本身具有高度複雜性。許多深度學習模型會受到訓練資料與戰場環境影響,其結果未必完全可預測。當演算法的判斷過程無法被人類清楚解釋時,國家將更難確認這些系統是否始終符合國際法要求。

此外,國際人道法中的「區分原則」與「比例原則」,也高度依賴人類對情境的理解能力。法律要求交戰方區分平民與戰鬥員,同時避免造成過度附帶損害。但在灰色地帶行動頻繁的亞太地區,海上民兵、漁船與民用目標之間往往界線模糊,AI是否具備足夠能力辨識合法軍事目標,目前仍有高度爭議。

更重要的是,「比例原則」本身並不只是數學計算。它涉及軍事利益、人道風險與戰略價值之間的主觀衡量。AI或許能計算殺傷半徑,卻未必能真正理解戰爭中的政治與倫理判斷。

除了攻擊是否合法,自主系統也開始衝擊戰爭中的責任結構。

傳統國際法假設,武力背後存在清楚的指揮鏈與決策者。但當部分系統能在失聯狀態下持續運作,責任認定也開始變得模糊。若AI系統誤擊平民,究竟應由操作員、指揮官、工程師,還是國家負責?這類問題,已形成國際法學界所討論的「責任鴻溝」。

近年聯合國LAWS(致命自主武器系統)政府專家小組,也開始強調「有效人類控制」的重要性,希望人類仍能保有對武力使用的最終介入能力。不過,目前這類概念多仍停留在政策倡議階段,尚未形成明確的國際法規範。

對台海、東海與南海而言,這樣的變化尤其值得注意。由於灰色地帶行動通常刻意維持在戰爭門檻以下,許多自主無人載具的運用,往往落在現行國際法的模糊地帶。

當未來海上無人機與自主系統開始長時間、高頻率施壓時,原本依賴政治與外交溝通的危機管控空間,也可能因演算法驅動的快速反應而逐漸被壓縮。對台灣而言,壓力甚至可能在缺乏明確政治起點的情況下持續累積。

國內外社會也開始注意這類問題。包括歐盟《人工智慧法案》、我國的《人工智慧基本法》、美國的AI治理原則,以及北約近年修訂的AI戰略,都逐漸強調「透明度」、「可追溯性」與「人類監督」的重要性。2024年於韓國首爾舉行的REAIM高峰會,也開始討論AI軍事治理的國際方向。

這意味著,未來國際法面對的問題,恐怕不再只是如何規範戰場上的行為,而是如何在系統設計階段,就把法律與責任機制納入其中。

當戰場從人類即時決策,逐漸轉向由演算法驅動的系統運作後,國際法真正面對的挑戰,或許不只是新武器的出現,而是戰爭中的「決策時刻」,正在慢慢消失。

※以上言論不代表梅花媒體集團立場※

延伸閱讀

熱門文章

分享