蔡鎤銘(淡江大學財務金融學系兼任教授)
人工智慧(AI)正以前所未有的速度改變媒體行業,從內容創作到資訊傳播,無不展現其強大潛力。在新聞報導、節目製作及多語言服務中,AI的應用提升了效率與創新,卻也帶來倫理、信任及透明度等挑戰。本文探討AI在媒體中的應用實例、其帶來的益處與風險,以及未來媒體人才所需的能力,旨在為AI時代的媒體發展提供洞見。
AI在媒體製作中的革新應用
AI技術已深入媒體製作各環節,為內容創作注入新活力。日本電視台(NTV)利用AI系統「AIDI」,在體育轉播中實現即時數據分析,如足球比賽中選手與球的距離、跑動速度等,這些功能不僅提升觀眾體驗,也降低高成本的電腦合成影像(Computer Graphics, CG) 製作需求。此外,AI自動生成比賽場景的CG,如棒球比賽的計分板,大幅提高製作效率。日本有線電視聯盟則應用AI於地方節目製作,運用ChatGPT生成腳本初稿,縮短製作時間,並透過Adobe Firefly快速生成4K畫質CG,解決地方電視台資源不足的困境。
NHK專注於AI在無障礙服務中的應用,開發手語CG技術,將新聞稿自動翻譯為手語,服務聽障人士。AI手語翻譯需考慮語序、表情與肢體動作等非語言要素,技術難度高但成果顯著,例如能將中文新聞稿翻譯為手語CG,應用於天氣與災害資訊傳播。這類技術突破人力限制,讓資訊傳播更具包容性。
AI的應用不僅提升效率,還拓展內容創新的邊界。例如,日本電視台的《變臉間諜》節目利用AI臉部識別技術,創造趣味性內容,吸引國際關注。這些案例顯示,AI正推動媒體內容的多樣化與高效率化,為觀眾帶來更豐富的體驗。
AI應用中的倫理與信任挑戰
AI在媒體中的應用雖帶來顯著效益,卻也伴隨倫理與信任問題。AI可能產生「幻覺」,即生成不實資訊,導致誤導性內容。例如,AI生成的新聞若未經嚴格審查,可能傳播錯誤訊息,損害媒體公信力。日本電視台與NHK均強調,生成式AI僅限於輔助用途,禁止用於最終稿件或事實確認,並要求記錄AI使用過程以確保透明。
著作權問題亦是重大挑戰。AI可能在未經授權的情況下使用網上資料生成內容,引發法律風險。日本電視台為此制定詳細的AI使用指南,針對不同應用場景(如CG色彩調整或角色設計)設定風險等級,並與法律專家協作更新規範。中國大陸中央電視台(CCTV)在AI主播應用中也採取類似措施,確保原稿經人工審查,以降低錯誤風險。
視聽者對AI的接受度影響其應用。根據2024年路透社數位新聞報告,41%的日本受訪者對AI主導的新聞感到不安,顯示信任問題的普遍性。英國廣播公司(BBC)因此制定透明化政策,公開AI使用方式,並避免在新聞及社會資訊節目中使用AI,以維護觀眾信任。這些案例凸顯,媒體需在技術進步與公信力間尋求平衡。
AI主播的角色與挑戰
AI主播的發展是媒體AI應用的焦點,其角色分為三類:A類由人工撰寫稿件,AI負責朗讀;B類由AI自動生成稿件並朗讀;C類由AI自主生成對話內容。A類應用最廣泛,如NHK的「新聞 Yomiko」及琉球朝日放送的夜間新聞,均以人工稿件為基礎,AI負責語音合成,確保內容準確性。B類應用如英國GB News的體育新聞,AI生成稿件後經人工審查,效率提升但風險猶存。
C類AI主播,如波蘭Off Radio Kraków的AI主持人,試圖模擬人類對話,但因倫理爭議(如模擬已故詩人進行訪談)引發爭議,播出一週即停播。此類案例顯示,C類AI主播的自主性可能損害媒體信任,需謹慎應用。視聽者反饋顯示,AI主播的機械感可能降低資訊吸引力,凸顯人類主播在情感表達上的獨特價值。
未來媒體人才的挑戰與機遇
AI時代的媒體人才需具備多元技能,以應對技術與倫理的雙重挑戰。首先,AI素養至關重要。媒體工作者需理解AI的運作原理與局限性,確保正確使用。例如,日本電視台的技術人員強調,AI生成內容需經多重人工審查,以避免偏見或錯誤。AI的快速進化要求人才持續更新知識,適應新技術。
其次,文化與歷史素養不可或缺。立教大學教授村上祐子指出,AI生成的內容可能延續過往偏見,如將護士形象女性化,需人工審查以確保公平性。此外,媒體人才需具備歷史視野,判斷內容的長期價值,確保其符合社會期望。
最後,價值判斷與創意力是核心競爭力。AI雖能生成高品質內容,但最終決策需由人類完成。日本有線電視聯盟的久保田精一強調,媒體人需具備明確的創作意願與價值判斷能力,以確保內容符合觀眾需求與社會責任。這些技能將是AI時代媒體人才的關鍵。
AI為媒體行業帶來前所未有的效率與創新,從內容製作到無障礙服務,皆展現其巨大潛力。然而,幻覺、著作權與信任問題要求媒體制定嚴格規範與透明政策。AI主播的應用需謹慎平衡技術進步與倫理考量,確保不損害公信力。未來,媒體人才需結合技術素養、文化視野與價值判斷力,在AI時代持續引領媒體行業的健康發展,實現技術與人文的和諧共存。