2024 年被稱為「AI 選舉年」——全球超過 40 個國家舉行大選,AI 生成的政治假訊息成為各國最擔憂的議題。但一年過後,AI 對選舉的實際衝擊,可能跟我們想像的不太一樣。

恐懼 vs. 現實

哥倫比亞大學 Knight First Amendment Institute 研究團隊分析了 2024 年全球選舉中記錄到的 78 起 Deepfake 案例,得出一個或許令人意外的結論:

  • 半數的 AI 政治內容並非欺騙性質——有些是惡搞、有些是藝術表達
  • 真正具欺騙意圖的內容,用傳統技術也能廉價製作
  • AI 影響力操作的真正瓶頸不是「內容製作」而是「內容分發」

換言之,生成式 AI 確實降低了假訊息的生產成本,但一則假訊息要真正影響選舉結果,它需要觸及大量選民——而這個「散播管道」的門檻並未因 AI 而降低。

但這不代表可以放鬆

雖然 2024 年的 AI 選舉干預未如預期那般災難性,研究者警告不應因此放鬆。原因有三:

1. 技術持續進化:2024 年的 Deepfake 品質已讓一般人難以分辨,到 2026 年只會更逼真。

2. 信任侵蝕效應:即使 Deepfake 未直接改變選舉結果,它的存在本身就在削弱公眾對所有媒體的信任。當任何影片都「可能是假的」,連真實的影像也會被質疑——這被稱為「騙子紅利」(Liar's Dividend)。

3. 制度回應不足:歐洲議會 2025 年報告指出,AI 系統在整個生命週期中都容易被操縱——從訓練資料被污染,到演算法被利用推送特定內容。但目前少有選舉監管機構具備足夠的技術能力來應對。

台灣的經驗

台灣在應對選舉假訊息方面已累積豐富經驗。從公民社會的事實查核組織到政府的即時澄清機制,台灣模式被國際視為典範。但面對 AI 生成內容的挑戰,我們需要持續升級工具和制度。

公民能做什麼

  • 對選舉期間的「爆炸性」影音內容保持懷疑
  • 追溯原始來源,而非只看轉發內容
  • 支持獨立事實查核組織的工作
  • 了解 AI 的能與不能,避免過度恐慌也避免輕忽

AI 假訊息對民主的最大威脅,也許不是讓人相信謊言——而是讓人不再相信任何事。


資料來源:Knight Columbia 2025 Election Deepfake Analysis、CIGI 2025 AI Electoral Interference Report、European Parliament AI & Elections Brief 2025、TIAL White Paper on Safeguarding Elections