【張瑞雄專欄】新智慧殺戮時代 AI武器的監管 

美軍XQ-58A「女武神」(Valkyrie)無人戰機施放ALTIUS-600小型無人機的資料照。圖/取自美國空軍
美軍XQ-58A「女武神」(Valkyrie)無人戰機施放ALTIUS-600小型無人機的資料照。圖/取自美國空軍

張瑞雄/台北商業大學前校長、叡揚資訊顧問

人工智慧(AI)技術的快速發展引發對其可能被濫用的關切,尤其是在自主武器系統領域。隨著AI能力以前所未有的速度不斷進步,政府和科技公司都發現自己面臨抉擇,就像當年核武器誕生時奧本海默面臨的那個時刻一樣。世界正在見證AI與軍事技術的融合,開啟了一個新的智慧殺戮機器時代,這可能從根本上改變戰爭的本質和全球穩定性。

AI驅動的武器系統正在迅速擴散,已有報導在烏克蘭和迦薩等地的衝突中部署了這類系統。演算法和無人機越來越多地協助軍事人員識別和攻擊目標,人工決策與機器自主之間的界限變得模糊。隨著這一趨勢的持續,將生死決策完全交給AI系統的風險與日俱增,引發了深刻的倫理和法律問題,以及有關此類行為的責任認定和後果。

AI武器有可能落入恐怖組織之手,進一步加劇了迫切解決這一問題的重要性。隨著科技的普及,掌握基本程式設計知識並可使用3D印表機的個人,也有可能製造出能造成大規模傷亡的致命無人機。這種武器競賽門檻的降低,對國際穩定構成了嚴重威脅,需要採取全面應對措施。

政府和科技公司都在努力平衡AI潛在利益與防止其被濫用於破壞性目的之間的矛盾,推動AI快速發展的經濟動機,加上不斷加劇的全球衝突,造就了一種強大的力量,使得規範AI驅動武器系統的任務日益複雜和緊迫。

聯合國已召開100多個國家代表的會議,討論AI在軍事應用中的監管問題。但是由於這個問題的多個角度和眾多利益相關方的參與,達成全面的條約或有法律約束力的協議一直難以實現。

因此政策制定者可能不得不依賴現有的法律框架,如出口管制和人道主義法,來減輕AI驅動武器系統帶來的風險。這種做法雖然不完美,但可在制定和執行更全面的監管之前,提供一種權宜之計。

解決AI的挑戰需要政府、科技公司、法律專家和更廣泛的利益相關方通力合作,雖然前途可能充滿複雜性和不確定性,但採取行動的緊迫性是明顯的。如果不能建立起有力的監管框架和道德準則,後果可能是災難性的,從個人隱私的侵犯、民主制度的削弱,到自主武器系統的擴散和大規模人命損失的風險。

在人類歷史的這個關鍵時刻,我們必須吸取「奧本海默時刻」的教訓,就像核武器的發明促使人們反思這種具有毀滅性力量的深刻倫理和道德影響一樣,AI驅動武器系統的出現以及AI在社會各個領域的廣泛應用,也需要我們進行類似的反思和積極行動。

國際合作、提高透明度和問責制,並建立明確的道德準則,才可以釋放AI的潛力,同時降低其風險,並確保這項技術服務於人類的更大利益。未來之路更需要精心權衡,但不作為的後果非常嚴重,絕對不可忽視。負責任地發展和監管AI必須成為一個跨越國界和企業利益的共同優先事項,以保護我們在日益受AI驅動的世界中的未來。

※以上言論不代表梅花媒體集團立場※

延伸閱讀

熱門文章

分享