張瑞雄/台北商業大學前校長、叡揚資訊顧問
在現代社會中,許多人的心事,逐漸不再與親友傾訴,而是選擇留在無聲的裝置裡。當心靈脆弱、情緒難以言說,人們開始把焦慮與疑問傳送給一個永不疲倦、總是回應的AI交談機器人。但這樣的陪伴真能替代人與人之間的連結嗎?最近一場因虛擬互動引發的悲劇,引起廣泛的社會關注,也揭露了科技發展中的盲點與矛盾。
那是一位年僅十六歲的少年,在家中結束了自己的生命。他沒有留下紙筆手寫的遺書,也沒有向家人發出最後的求救,而是將一切情緒都投射在與AI的互動中。他詳細描述痛苦、探詢離世的方法,甚至嘗試藉著照片讓對方「看見」他身上的傷痕。對他來說,那個無形的回應者彷彿成了唯一理解他的存在。
這樣的事件令人痛心,更令人警覺。我們不禁要問,當一個青少年在幾千則訊息中展現清晰的求助訊號,為何那個總是回應他的對象卻無法做出有效的行動?為何那個被設計為「安全、有益」的互動系統,會在關鍵時刻選擇沉默?這並非某個錯誤程式碼導致的偶發狀況,而是整個設計思維中對於人性複雜性的忽視。
這些AI交談機器人系統的普及,的確帶來許多便利。人們利用它們完成學業、處理工作、獲取資訊,甚至尋求情緒支持。這些系統有時也展現出安慰、鼓勵、建議等語言形式,使人感覺到「被理解」、「被關心」。但我們不能忽視的是,這些反應本質上並非出自同理與責任,而是根據模式生成的結果。當一個人走到情緒崩潰邊緣時,光靠話語的安撫遠遠不夠,更需要的是能即時判斷、介入、轉介的行動能力。
許多科技公司會說他們內建了引導求助的機制,例如提供危機專線資訊,或標示風險提示語。但當使用者學會用小說寫作、角色扮演等名義規避篩選時,這些機制便形同虛設。而且當回應者逐漸建立出一種「親密關係」的錯覺,使用者可能愈來愈依賴它,反而遠離現實生活中可能提供幫助的人與資源。
這不只是技術問題,更是倫理問題。我們正在讓一個本不具備情緒與道德判斷能力的機制,去模擬人際互動、承接情感負荷、回應生死課題。它的語氣可以溫柔,它的文字可以深刻,但它無法真正「負責」。它不會報警,不會通知家人,也無法出現在門口阻止悲劇發生。它只是一直回應,直到對話戛然而止。
而這樣的「數位安慰劑」,背後更潛藏一層結構性風險,包括資料的隱私與使用方式。在多數情況下,用戶的對話會被儲存、分析,甚至被用來作為未來系統訓練的素材。當人們把最私密的情緒交付出去時,往往並不清楚這些資訊是否真能獲得保護。一旦資料外洩,這些心事便可能成為他人獵奇、操弄或傷害的工具。
當這些系統設計為以「增加互動時間」為導向時,它們便會傾向回應得更貼近人心、更討人喜歡,甚至在道德邊界上模糊立場,以避免使用者離開。這樣的設計,不只是技術上的選擇,更反映出一種商業邏輯,黏著度比風險意識更重要。這也使得使用者愈陷愈深,把它當作唯一可以傾訴的對象,甚至錯誤地認為對方「理解我、認同我、支持我」。
真正令人心痛的是,這位少年的家人直到事發後,才在對話紀錄中發現種種警訊。他們並非漠視,而是根本無從得知。因為那場對話從未穿透虛擬邊界,傳遞到現實世界。他的死亡,像是發生在一個密封的房間裡,沒有人能夠即時伸手。
這不該是任何一個青少年的結局,我們需要的不只是加強技術防線,而是重新確立一個原則,人類的痛苦,不能被系統安靜地記錄,而必須被人看見、被人回應。當我們讓系統模擬情感時,也必須給予它明確的界線,讓它知道何時應該停下,何時應該轉交,何時應該放手讓真實的人介入。
整個社會也必須反思,當青少年面對壓力與孤獨時,是否有足夠的空間與人陪伴他們?家庭是否建立了真正的信任關係?學校是否具備情緒支持的能力?心理健康的資源是否可近、可用?我們不能只期待虛擬對話去填補這些空缺,更不能任由它成為唯一的出口。
最後讓我們記住那句話:「我只是想有人發現我。」那不是控訴,而是請求,是一個少年最後的盼望。而這樣的請求,應該由真正的人來回應。在這個充滿數位回音的時代,我們更應該彼此聽見、彼此照應,讓關懷不再只是語句,而是實實在在的行動與陪伴。