漏洞並非來自寫作,而是出現在付款流程。
當《Wired》編輯部試著支付給 “Margaux Blanchard” 一篇關於情侶在《Minecraft》中舉辦婚禮的 1,400 字專題稿費時,管理流程卡關。這位自由撰稿人明明來往電郵專業、提案完善、文章引人入勝,卻突然無法提供基本付款資料。
看似是瑣事,實則揭開了一場精密 AI 詐騙案的序幕。
數日內,《Wired》驚覺自己被徹底愚弄。Blanchard 是虛構人物,文章皆由 AI 生成。專文中所引用的「虛擬婚禮主持人」專家——Jessica Hu——實際上也不存在。《Business Insider》、《Index on Censorship》及其他多家媒體隨後陸續發現,過去以為報導的內容,其實都是小說。
這場騙局暴露的不僅是編輯部的糗態,更凸顯新聞界對 AI 具備全面偽造文章、專業身分以及可信來源的能力毫無準備。
問題不在內容
Margaux Blanchard 的作業手法避開了所有典型 AI 文章漏洞,沒有重複遣詞、語義不通或制式回應,相反呈現深入細緻的編輯討論,提出契合媒體定位的主題角度——交付文章也引用看似可信的人物。
《Wired》編輯團隊對「Minecraft 婚禮」專題毫無懷疑,文章風格及內容完全契合數位文化版面。直至需進行現實世界的身份查驗、付款流程,才讓精密虛構崩解。
「我們在這裡犯錯了:這篇文章並未經過正規事實查證流程,」《Wired》最後坦承。然而這種懺悔仍然忽略要害,因為傳統查證流程預設撰稿人是善意的人,並非偽造整個專業人設及來源。
Dispatch 雜誌編輯 Jacob Furedi 則是在收到 Blanchard 關於「美國科羅拉多州被廢棄礦業小鎮 Gravemont 成為世界最神祕命案調查培訓基地」的專題提案時,開始感到可疑。文案詳盡、措辭專業,唯一問題在於——Gravemont 根本不存在。
當 Furedi 要求進一步證明時,Blanchard 回覆了大量關於跟進「前培訓學員」對話、解讀研討會細節的說法。這些解釋在專業上無懈可擊,但全是杜撰。
「一個地點不可能憑空捏造,」Furedi 事後表示;但事實證明,這樣的騙局確實夠精細,足以矇混資深編輯。
新聞產業經濟結構助長詐騙
Blanchard 的手法精準利用了新聞產業的成本考量。隨著外包撰稿比聘用專職員工來得便宜,許多刊物在省下查證與長期建立關係的同時,無意間降低了驗證機制。
《Business Insider》一篇外包稿的平均報酬約 170 英鎊。這數字反映業界普遍追求低成本、高產出的壓力。事實查證——也就是傳統雜誌社模式,逐字逐句逐項核實——遠比現今網路媒體普遍做法要慢且貴得多。
現在,大部分媒體採取所謂的「報社模式」:記者自我核實,編輯隨機抽查,機制預設供稿人基於誠信。這種架構適合真人記者,但如果投稿者是能編造資歷的 AI,便成了致命漏洞。
比故事稿費更深層的,是產業結構:過去十年,不少新聞機構已裁減 20-25% 的固定職缺。如今靠外包勉強撐出基本新聞量,卻更無力維持驗證外部來稿的基礎設施。
「事實查證員,理應不會像作者、編輯對故事有所情感投射,」新聞研究者 Brooke Borel 指出;但若全文 AI 生成、來源純假設,根本沒有人能發現裡頭的問題。
這使得整套從專業聲譽與人脈網絡建立的驗證流程——如今面對 AI,可以完全繞過。
遠端工作的「完美風暴」
遠端外包潮,進一步為此類詐騙創造最佳溫床。以往驗證靠業內人脈、長期互動甚至面對面交流建立信任;遠端外包則一切簡化成電子郵件聯繫,讓高級「機器冒牌者」能無縫鑽漏洞。
Blanchard 的操作完美複製了合格外包記者的一切:合適的編輯投遞、篇幅規劃、跟進聯絡、持續展現專業知識。偶爾的付款方式偏好(如偏好 PayPal),對眾多外包寫手而言亦屬常見。
諷刺的是,正因遠端制度增加了真實記者的機會,卻也讓冒充者能利用這種「信任缺口」。所有依賴舊有專業網絡的驗證流程,都在「憑空創造人設」這步棋上徹底無力。
不似過往記者詐騙仍有真人冒名,AI 欺詐創造的供稿人與專業背景,全是徹頭徹尾虛構。根據 Press Gazette 報導,Blanchard 的署名文章可追溯至四月,顯示這並非零星意外,而是系列詐騙行動。
Blanchard 事件暴露出編輯機制與 AI 能力的根本錯位。事實查證先驅 Bill Adair 認為,查證是「記者核實論述真確性的編輯技巧」——但這預設陳述來自真實人物。
AI 生成的內容與虛構來源,需完全不同的驗證手段。Blanchard 提交的文章裡,專家姓名、資歷皆符合合理推理,卻始終難以找到在網路上的任何真實記錄。「Jessica Hu」被描述為「芝加哥的 34 歲婚禮主持人,專精數碼慶典」,對編輯來看完全像真實存在——只是在事後調查時全數打臉。
傳統的查證機制,只能驗證「這人是否真的說過這句話」,而非「這個專家本身是否為虛構」。AI 輕鬆生成一組看似正規的職稱與專長領域,卻從根本不存在於現實世界。
現有編輯機制預設供稿人有網路存在、真實資歷、人脈網絡。但 AI 騙局徹底繞開——創造的每一位供稿人看來專業又自洽,卻根本查不到蛛絲馬跡。
技術競賽升級
支持 Blanchard 騙局的 AI 技術早已超越過去容易分辨的粗糙稿件。現今生成式語言模型能模仿各媒體文風、運用行業術語,還能生成生動對話,而且完全不帶一絲「AI痕跡」。
NewsGuard 研究發現全球有 1,200 多個以 16 種語言運作的「不可靠 AI 新聞網站」,但 Blanchard 事件則是直接滲透已建立聲望的主流媒體,而非只是在網路上創造自說自話的小型假新聞站。
Blanchard 提出給 Furedi 的專題建議,展現出對媒體調查流程的精細認知,包括進入工作現場的方式、採訪策略與故事結構規劃。這種成熟手法顯示,新聞業需要一套現今根本不存在的驗證手段。
路透社的 Reuters Institute 研究員 Felix Simon 指出,AI 快速進化,已經「讓公眾可用的生成式系統」能用極低成本生成大量迷惑性的內容,而媒體卻得用真金白銀支付稿費。
行業調查指出超過 75% 報社已經將 AI 用於新聞流程,但幾乎沒有人真正建立能識別高級 AI 提交內容的機制。現行 AI 判讀工具面對精心設計來混淆審查的稿件時,一點作用也沒有。
隨著 AI 能力日益精進,媒體資源卻日益緊縮,詐騙與審查之間的落差只會越來越大。這宗案件或許是首例引發廣泛關注的高階 AI 新聞詐騙——卻肯定不會是最後一樁。
問題不再是「會不會」有更精密 AI 欺詐針對主流媒體;關鍵變成「新聞界能否及時調整審查機制,來維護民主社會所依賴的公信力」。Margaux Blanchard 案例充分說明——改革須迅速且徹底。