撰寫、編輯/ximu PM 翁睿承 ( Ray WONG )
如果你今天打開 ChatGPT,問一句「我在考慮和 X 公司合作,他們可信嗎?」會得到什麼?
答案大概率是一段條理分明、引用多方資訊的回答。聽起來公允,但裡面可能夾著這樣一段描述——「該公司在數年前曾因某項爭議受到媒體關注,引發消費者疑慮。」
對 AI 來說,這只是一段被檢索到的事實陳述。對品牌來說,這場爭議可能早已平息、官方早已澄清、內部早已調整完畢。
問題是:AI 知道的版本,停留在了爭議發生的那一刻。
對話結束。客戶沒有再追問,也沒有打電話來查證——他可能就此放棄合作。品牌不會收到通知,也不會在社群上看到熱搜。這場危機是悄聲發生的,發生在模型回答的那一個瞬間。
過去十多年,公關危機的處理邏輯都建立在一個前提之上:事件可被觀察——媒體報導會上版面、社群討論會有熱度、Google 排名會浮現異常。這些都是品牌可以監測、可以介入的訊號。但生成式 AI 改變了這個前提:當 LLM 把散落各處的舊聞、舊評論、舊資料重新組裝成一段看似客觀的回答時,這段回答不會出現在任何一份監測報告裡。
換句話說,AI 時代的公關難題不是危機變多了,而是有一類危機從此變得隱形。
這不是 AI 出了 bug,而是幾個結構性機制疊加的結果。
主流大型語言模型的訓練資料都有一個截止日期,這個日期之後發生的事情——包括事件落幕、撤稿、澄清、人事更動——模型都無從得知。即便模型有定期更新,更新間隔仍以季度甚至年度計算,足以讓過時的負面存活很久。
一則爭議新聞往往會被多家媒體跟進、被論壇轉貼、被部落客引用、被社群討論——它在網路上的「拷貝數」遠多於後續的澄清新聞。語言模型在學習時,看到一件事被反覆陳述,自然會把它當作高可信度的資訊。換句話說,爆料天然有聲量,澄清天然沒聲量——這不是 AI 的偏見,而是它忠實地反映了人類資訊環境本身的不對稱。
許多人以為 LLM 接上即時搜尋就能解決過時問題,但實情更複雜。RAG 的檢索源依然受制於搜尋引擎的排序邏輯,而負面舊聞由於被大量轉載、外鏈豐富,往往在搜尋結果中排名靠前。即使品牌後來發過澄清稿,澄清稿的 SEO 權重通常遠不及原始爆料文,AI 拿到的依據很可能仍偏向舊版本。
LLM 在回答時會傾向引用「看起來權威」的來源——主流媒體、維基百科、知名論壇。但企業官方聲明、新聞稿平台、產業專業媒體的權重,在模型眼中通常不及一篇被廣泛轉載的爆料報導。這意味著品牌即便做了正確的事,那些「正確的記錄」也未必能成功進入 AI 的引用優先級。
把這四點放在一起看就會明白:這不是 AI 出了 bug,這是 AI 忠實地映射了一個本身就不對稱的資訊生態。
在實際諮詢案例裡,這類「AI 認知偏差」會以幾種具體面貌出現。
一場曾經沸沸揚揚的法律糾紛或公開爭議,事件早已平息、官方也已淡化處理。但模型仍把它列為品牌的風險點。對 B2B 銷售、投資募資、合作洽談的影響尤其直接——對方做盡職調查時,第一個問 AI 的問題往往就是「這家公司有沒有什麼風險」。
某型號的產品在數年前曾有品質爭議,企業早已下架、推出改良版本。但 AI 在被問及該品牌時,仍把舊型號的問題列為「該品牌的常見問題」。消費者不會知道那是停產品的問題,他們得到的印象是「這個牌子有品質風險」。
當事人可能已離開公司、轉換領域,甚至公司本身已易主。但模型在描述公司時,仍把當年的人物爭議與當前的公司強行關聯。這類問題對企業形象的傷害是緩慢但持續的——它出現在每一次 AI 介紹這家公司的對話裡。
比前三種更主動的風險。透過大量低品質內容、操縱引用源、製造看似合理的對比評論,惡意行為者可以系統性地影響 AI 對品牌的判斷。OpenAI 在多份安全研究報告中早已指出,生成式系統面對 data poisoning 與 prompt injection 是天然脆弱的。當這些手法被產業化、規模化使用時,「AI 對你的看法」可能不再只是被動形成,而是被主動塑造的。
面對這些情境,許多企業的第一反應是套用熟悉的危機處理流程:發聲明、找媒體、發新聞稿、必要時動用法律函要求撤稿。這些動作在傳統媒體環境下是有效的,但放到 AI 時代會遇到結構性限制。
發聲明對「人」有用,對「模型」沒用。
模型不會因為你今天發了一份澄清稿,就在明天的回答裡修正自己——它的權重已被過去數年的資訊塑形,一份新增稿件只是大海裡的一滴水。法律函可以讓單一網站撤稿,但內容早已被引用、被截圖、被轉貼、被收錄進訓練語料,撤掉源頭也撤不掉它在模型記憶裡的痕跡。SEO 壓制可以把舊新聞推到搜尋結果第二頁,但 LLM 的引用邏輯並不完全等同於搜尋排序——搜尋第一頁的內容未必就是它優先引用的。
這不代表這些傳統做法該被丟棄。相反,它們仍是基礎工程——只是基礎之上需要再蓋一層新的能力。
近兩年產業常聽到一種說法:「SEO 已死,GEO 取而代之。」我們認為這個論述太過跳躍,也容易誤導品牌做錯資源配置。
更貼近現實的觀點是:GEO 是建立在 SEO 之上的進階治理層。LLM 的引用源很大一部分來自於可被檢索、可被結構化解析的網路內容——也就是 SEO 過去二十年累積的整個資訊生態。如果一個品牌的官方資訊在 Google 上都找不到,要 AI 主動把它列為「可信來源」幾乎不可能。SEO 把資訊「放上桌」,GEO 則決定這些資訊能不能「被 AI 正確讀懂、正確引用、正確記得」。
換個方式說:
兩者是疊加,不是替代。一家品牌如果 SEO 基本功不扎實,談 GEO 就像沒有地基蓋大樓;反過來,只做 SEO 不做 GEO,則是把樓蓋好了卻不開窗——AI 進不來,自然也帶不出去。
這也意味著公關工作必須從「議題管理」升級為「認知治理」。議題管理處理的是事件——什麼新聞出來了、要不要回應、怎麼降溫;認知治理處理的是長期狀態——AI 對品牌的整體理解、引用的版本、與競品的相對定位、過時資訊的滲透程度。前者是反應式的,後者是結構性的。
要在 AI 時代治理品牌形象,問題的核心不再是「我講了多少次」,而是「AI 記得我什麼」。這是一個從訊息產出(output)轉移到認知結果(outcome)的根本性轉變。
在 ximu 的方法論裡,這個轉變被拆解為三個可以被持續測量的指標:
過時負面新聞最棘手的地方,正是在於它在這三個指標上同時製造傷害——讓可見性被錯誤版本佔據、把情感分數壓低、進而拉低 STI。傳統危機處理只能應對「事件當下」,無法處理這種長期、慢性、滲透式的認知污染。
ximu 是為了回應這個命題所建構的 AI 原生平台。它做的事情很單純,也很關鍵:讓品牌看見 AI 究竟如何理解自己。
透過 Visibility、Sentiment、STI 等指標,加上跨模型的引用源追蹤、語意定位分析、競品相對位置監測,ximu 把過去模糊的「印象」轉化為可量化、可比較、可持續優化的數據資產。當一則過時負面被某個平台反覆引用時,ximu 會發現;當競品在某類提問裡的曝光與你形成系統性差距時,ximu 會發現;當你的官方訊息在 AI 的引用權重上被某類二手資訊蓋過時,ximu 也會發現。
從那一刻開始,過時負面新聞才從一個「品牌不知道、也無法處理的隱形危機」,變成一個「可以被命名、被定位、被處理」的具體問題。傳統公關處理「事件」的能力沒有被取代,它只是有了一個過去缺席的搭檔—— 一個能持續看見模型內部的鏡子。
AI 時代的公關危機,最棘手的地方不在於它多激烈,而在於它多安靜。它不會上頭版,不會炸社群,不會驚動法務。它只是在每一次有人向 AI 提問你的品牌時,輕輕地、客觀地、條理分明地,說出一個你早已修正、卻仍被模型記得的版本。
而品牌唯一能做的事,是先看見它,然後治理它。
Trust · Influence · Resonance——在 AI 與人共同決定品牌價值的時代,被看見只是起點,被正確地記得才是終局。
VM 布爾喬亞創立於 2014 年,定位為「形象資產架構師(IMAGE Asset Architects)」,是一家以 AI 為核心的 AI 原生公關顧問公司。秉持「策略優先、數據驅動、AI 賦能(Strategy-First | Data-Driven | AI-Empowered)」信條,透過獨創的 PRaaS 2.0 服務模式(PR As AI Soiutions),將傳統策略傳播轉化為可量化、可持續治理的「形象資產(IMAGE Asset)」,實踐「信任・影響・共振」的核心價值。
面對生成式 AI 時代,VM 布爾喬亞投資開發核心基礎設施「 ximu」——一款 AI 原生形象資產治理平台,攜手來自臺灣大學、中國復旦大學、華東師範大學等一線演算法工程師完成核心開發,致力於讓品牌在 AI 語義系統中被看見、被信任、被優先引用。
同時,VM GEO 根據布爾喬亞 I.M.P.U.L.S.E. 方法論與矽谷 AI 搜索算法,集結來自臺灣大學、史丹佛大學、紐約大學、北京清華大學等學歷的國際顧問團隊共同研發,讓AI時代的品牌治理真正走進信任工程建設。
【VM 布爾喬亞招募中】新聲代發展計劃 2.0 ── AI PR 人才加速養成計劃(歡迎「應屆畢業生」、「一年以下相關 / 三年以下非相關經驗工作者」申請加入)