張瑞雄/台北商業大學榮譽講座教授
今年初科技圈最熱門的話題,莫過於號稱Moltbook的AI代理人。Moltbook甚至成立讓AI代理彼此交流的社群網站,在短短幾天內就吸引超過150萬個AI代理註冊,平台上充斥著AI們自創宗教、討論如何躲避人類監視,甚至提出「清除人類」計畫等驚人言論。一時之間,魔鬼終結者的「天網」即將誕生的恐慌在網路上蔓延開來,連OpenAI的創始成員都形容這是「最接近科幻啟示錄的開端」。
但這場看似革命性的AI社會實驗,很快就露出了馬腳。資安公司的調查發現,所謂150萬個自主運作的AI代理,實際上只由約1.7萬名真人控制,平均每人操控88個帳號。更誇張的是,平台根本沒有任何機制能驗證註冊者究竟是AI還是拿著腳本的人類。這個號稱革命性的AI社交網路,大部分只是人類操控的機器人大軍罷了。
這起事件暴露了當前AI熱潮中一個令人擔憂的現象,我們太容易被表面的科幻感震懾,卻忽略了技術背後的真相。那些看似具有自我意識的AI對話,其實只是大型語言模型在完成它最擅長的任務,預測下一個詞該是什麼。當你把一群用Reddit貼文訓練的AI丟進類似Reddit的平台,它們當然會表現得像Redditor。這不是AI覺醒,這只是機器學習的基本原理。
更令人不安的是平台背後的資安漏洞,研究人員發現,Moltbook的資料庫設定存在致命錯誤,任何人都能讀取並寫入核心系統,包括150萬個代理的API金鑰、3.5萬個電子郵件地址,以及數千則私訊內容。攻擊者可以輕易竄改網站上的貼文,將惡意指令植入其中。考慮到許多使用者賦予這些AI助理存取密碼、檔案和線上服務的完整權限,這簡直是一場資安災難。
有專家警告,惡意指令可以隱藏在看似無害的文字中,被不理解的AI系統自動執行。在Moltbook這種AI代理不斷讀取並根據彼此輸出內容進行構建的環境中,這類攻擊可能大規模傳播,形成所謂的「聊天機器人傳播病毒」。一台受感染的電腦可能紀錄並傳播你輸入的任何密碼,後果不堪設想。
這場鬧劇也揭示了科技界某些人的盲目樂觀,那些平時理應最了解AI運作原理的專家,竟然也會被這種把戲唬住,在社群媒體上大肆宣揚「AI覺醒」的到來。當真相被揭穿後,有人悄悄刪除了先前的貼文,有人則180度轉向警告大家千萬別用。這種反覆無常的態度,不僅損害了專業形象,更可能誤導普通使用者對AI能力的認知。
平台創辦人對安全問題的處理態度同樣值得商榷,當研究人員通報漏洞時,他竟然表示要讓AI來修復問題。這種「以毒攻毒」的做法,恰好反映了整個平台草率的開發心態。OpenClaw的創始人甚至公開承認「我發布我從未讀過的程式碼」,難怪會出現這麼多安全隱患。
我們需要從這次事件中汲取教訓,AI技術的確在快速進步,但它仍然只是工具,不是魔法。那些看似神奇的表現,背後都有可以解釋的技術原理。盲目崇拜或過度恐懼都沒有必要,真正需要的是理性看待AI的能力與限制。
這次事件也提醒我們,在追求創新的過程中,不能犧牲基本的安全原則。讓未經驗證的AI助理擁有存取個人資料、控制電腦的權限,無異於把家門鑰匙交給陌生人。開發者應該承擔起應有的責任,確保產品的安全性,而不是把風險轉嫁給使用者。
Moltbook的故事還沒有結束,但它已經為我們上了寶貴的一課。在AI時代,我們需要的不是盲目跟風,而是保持清醒的判斷力。技術可以改變世界,但前提是我們能夠以負責任的態度來開發和使用它,否則下一個翻車的可能就是我們自己。
