你在 TikTok 上傳了一段自我介紹、在 YouTube 留下一段訪談、在 LinkedIn 分享了一場簡報錄影。這些看似無害的數位足跡,如今可能成為詐騙者最需要的「原料」——因為現代 AI 語音再生技術(Voice Clone),只需要 3 秒的音訊就能複製你的聲音

暴增的數字背後

根據 Pindrop 2025 年語音安全報告,美國客服中心遭遇的 Deepfake 語音攻擊在過去一年暴增 1,300%,從月均 1 件躍升至日均 7 件。更令人警惕的是,2025 年上半年全球已記錄 580 起 Deepfake 相關事件,遠超 2024 年全年的 150 起。

這些數字的意義不只是「變多了」——它代表語音 Deepfake 已經從實驗室走進了日常犯罪。過去需要專業技能才能做到的語音偽造,現在任何人只要付費訂閱一個工具就能完成。

最常見的攻擊場景

家庭緊急詐騙是目前最具殺傷力的手法。詐騙者模擬子女的聲音,致電父母假稱遭遇車禍、被綁架或急需保釋金。在恐慌之下,受害者往往來不及冷靜思考就匯出大筆金額。

在企業端,偽造 CEO 或 CFO 語音下達匯款指令的案例同樣急劇增加。2025 年,透過再生語音發動的企業詐騙損失,全球累計已超過 400 億美元

為什麼銀行的「聲紋驗證」也擋不住

更深層的問題在於,許多金融機構採用的語音生物辨識系統,正被同樣的技術突破。超過 10% 的金融機構已遭遇單次損失超過 100 萬美元的 Deepfake 語音攻擊。而被詐騙的資金,不到 5% 能被追回。

你能做什麼

  1. 建立家庭暗號:與家人約定一個只有彼此知道的通關密語,任何緊急求助電話都先確認暗號
  2. 減少公開音訊:注意社群媒體上的語音和影片內容,它們都是潛在素材
  3. 多管道驗證:接到任何要求匯款的電話,掛斷後用另一個號碼回撥確認
  4. 質疑情緒操控:詐騙者最常利用「緊急」和「保密」來阻止你冷靜思考

在 AI 時代,「眼見為實、耳聽為真」已不再可靠。信任必須透過行動來驗證,而非僅憑感官。


資料來源:Pindrop Voice Intelligence & Security Report 2025、McAfee AI Voice Scam Research、ReversePhone 2025 Deepfake Study