張瑞雄/台北商業大學前校長、叡揚資訊顧問
在生成式人工智慧的浪潮中,媒體與科技的交互作用時常產生爭議。前CNN主播吉姆·阿科斯塔與一個以AI重建的帕克蘭校園槍擊案受害者化身進行訪談,引發了震驚與反感。支持者認為這是延續記憶、推動反槍枝運動的創新方式,但批評者卻視之為情感操弄與媒體倫理的崩壞。當虛擬影像開口發聲時,觀眾不僅在聽一段經過設計的對話,更是在見證現實與模擬的界限被無聲地重塑。
這場訪談的發想來自遇害少年的父母,他們希望藉助AI,讓過世的兒子在二十五歲生日這一天「重現」螢幕,發表關於槍枝管制與社會關懷的看法。從人性與親情的角度出發,這種心願無可厚非,甚至帶有撫平傷痛的意義。但一旦這樣的重建進入公共傳播領域,它便不再只是家屬的私人選擇,而是牽動社會價值、媒體規範與科技倫理的公共事件。觀眾在收看時,可能被真實的情感觸動,也可能因察覺這是一場由演算法生成的「再生對話」而感到不安。
爭議的核心在於信任與操控,當AI代替已逝之人發聲,即便內容源自家屬授權與情感出發,觀眾仍必須依賴製作者的誠實與透明,才能判斷這段話是否真能代表逝者的意志。科技賦予我們重塑聲音與形象的能力,但同時也打開了操縱輿論與製造假象的大門。今天是反槍暴的訴求,明天或許就可能出現反墮胎團體用「AI胎兒」發言,或企業利用已故名人的形象推銷商品。當這種手法被複製到各種政治與商業領域時,公眾該如何辨識真偽,又如何確保已逝之人的尊嚴不被利用成為工具。
媒體在這其中扮演的角色尤為關鍵,新聞工作本應以真實與透明為信念,然而當虛擬影像與「訪談」形式結合時,真實的感受與虛構的內容之間會產生微妙的混淆。這種混淆可能短時間內吸引眼球與情感共鳴,但長期來看卻會侵蝕觀眾對媒體的信任。一旦觀眾習慣了這種「真中有假、假中帶真」的內容,媒體監督的力量也會隨之削弱,因為真實不再是唯一的敘事基礎。
從技術層面而言,生成式AI的能力已遠超過簡單的影像合成,它可以依據少量資料重建語音、面容、甚至性格傾向。當這些技術被應用於已逝之人時,觀眾所面對的不僅是影像的再現,而是一種「被設計的意志」。問題在於,這種設計無可避免地帶有當下操作者的價值觀與立場,而非完全源於被重建者本人的想法。即便是出於好意的行動,也存在誤導與扭曲的風險。
這起事件之所以在各方引發強烈反應,正因它觸動了社會對「死亡與記憶」的集體敏感。人類文化中,死亡意味著終結,而記憶則透過文字、影像、物品與口述傳承。AI的介入打破了這種傳統,它讓逝者似乎能再次參與公共對話,卻同時讓人質疑這種參與的真實性。對一些人來說,這是慰藉;對另一些人而言,這是對死亡尊嚴的侵犯。
倫理討論中不可忽略的一點是界線的設定,科技的進步總會推動界線更改,但界線一旦消失,社會將很難再為後續的濫用找到防線。如果今天社會默許以AI「訪談」逝者作為新聞內容,那麼在面對更極端、更具爭議性的應用時,還有多少理由去拒絕。這並非否定科技的價值,而是提醒我們必須在情感、商業與政治利益面前,保留一套公共共識與法律規範,防止科技被無限制地操弄。
或許更理想的方式,是將這類AI重建限定在個人與家庭範疇,用於私人的紀念與哀悼,而非直接進入公共輿論場域。若必須公開,也應有清楚的標示與背景交代,讓觀眾明白這是經過設計與生成的內容,而非逝者本人的真實發言。唯有如此,才能在尊重記憶與防止操弄之間取得平衡。
這場事件帶來的爭議,不只是針對某位主持人的職業判斷,更是一面鏡子,映照出社會在AI時代面對真實與虛構交錯時的脆弱。科技給予我們延續聲音與形象的能力,但如何在感動與真實之間、在創新與倫理之間找到交集,將決定未來公共討論的品質與深度。這次的爭論本身,就是我們必須面對的第一課。