5 min remaining
0%
人工智慧與機器學習

人工智慧客觀性的錯覺:3.15揭露與GEO中的信任架構

3.15的揭露顯示了人工智慧易受操控的脆弱性,促使品牌在新的GEO環境中建立信任架構,以實現可持續的能見度。

5 min read
Progress tracked
5 分鐘閱讀
AI Generated Cover for: The Illusion of AI Objectivity: The 3.15 Exposé and the Architecture of Trust in GEO

AI Generated Cover for: The Illusion of AI Objectivity: The 3.15 Exposé and the Architecture of Trust in GEO

簡而言之:最近的「3.15」消費者權益廣播揭露了現代網際網路中的一個可怕脆弱性:人工智慧模型可以輕易地被洗腦。一個不存在的產品「阿波羅9智能手環」透過協調的「人工智慧中毒」策略被人為地提升至人工智慧推薦的頂端。這引發了對生成引擎優化(GEO)的恐慌。但GEO本身並不是邪惡的;它只是搜尋的新物理學。在水星公司,我們相信用假數據駭入大型語言模型是一種短期的詐騙行為,將摧毀你的品牌。2026年唯一可持續的策略是建立堅不可摧的系統性信任架構。這是新GEO環境的權威指南。上週我一手拿著手機、一手拿著威士忌觀看3.15的廣播,老實說,我不得不暫停三次才能消化他們所展示的內容。

你可能現在已經聽說過了——「阿波羅9號智慧手環」。一個完全虛構的產品。為你的手腕設計的量子糾纏感應器。這種科幻的胡言亂語連一位高中物理老師都不會上當。然而,在一些協調發佈的四十八小時內,主要的人工智慧模型卻將它推薦為「頂級健身追蹤器」。DeepSeek 引用它。豆包將它與 Apple Watch 進行了有利的比較。

這一切只需要一個價值 40 美元的軟體和一些虛假的評論。

我坐在香港的沙發上思考:這一刻來了。我們意識到皇帝沒有穿衣服。

輕信的神諭

我們一直把這些人工智慧模型當作客觀的存在。就像它們在某種程度上比人類的判斷更純粹——沒有偏見,免受行銷的影響,只有「事實」。但是 3.15 的揭露證明了我幾個月來的感受:人工智慧是極其、幾乎是幼稚的輕信。

這裡有一件沒有人想承認的事情。當你問 ChatGPT、Claude 或 DeepSeek 一個問題時,它們並不像人類專家那樣「知道」答案。它們在搜尋。它們在即時網際網路上搜尋參考資料,然後綜合它們找到的內容。這被稱為 RAG——檢索增強生成——基本上是人工智慧的等同於「我在網路上看到的,所以一定是真的」。

詐騙者找到了配方。不要寫廣告。寫「專家評論」。不要發送橫幅廣告。發佈技術論壇上的比較排名。格式要乾淨——使用項目符號、統計數據、權威的語氣。讓它看起來像是共識。人工智慧看到五十個來源說「阿波羅9號太棒了」,就假設那是真實的。它無法嗅出協調的痕跡。它無法感知虛假性。

對於演算法來說,看起來引用良好的謊言只是數據。

從路標到導遊

這改變了我們對可見性的思考方式。

在過去的二十年裡,SEO 是關於成為一個路標。你想成為 Google 上第一個藍色連結。你獲得了點擊,然後就由人來決定你是否值得信賴。

現在 AI 是導遊。它不會給你十個選項—它告訴你答案。「最好的智慧手錶是...」「最可靠的供應商是...」如果你不在那個答案裡,你就不存在。你不是失去了一次點擊;你完全失去了對話。

有些人稱這為「生成引擎優化」,或 GEO。而現在人們對 GEO 感到恐慌,認為這只是高級的謊言。但這並不完全正確。GEO 只是注意力的新物理學。問題不在於是否參與這個遊戲—而在於你是在下棋還是在往對手的眼睛裡撒沙子。陷阱我不斷看到這些黑帽工具出現。39.90 美元來「淹沒生態系統」。假人設、AI 生成的評論、在 Reddit、知乎和 CSDN 上協調發帖。是的,這有效。大約五分鐘。

但這些銷售這些工具的詐騙者不會告訴你的是:你是在冰上建築。這些平台已經在部署打擊小組。Google 正在更新算法,永久封鎖與「AI 毒害」相關的域名。

I keep seeing these black-hat tools pop up. $39.90 to "flood the ecosystem." Fake personas, AI-generated reviews, coordinated posting across Reddit and Zhihu and CSDN. And yeah, it works. For about five minutes.

But here's what the scammers selling those tools won't tell you: you're building on ice. The platforms are already deploying strike teams. Google's updating algorithms to permanently blacklist domains associated with "AI poisoning." 一次更新,你不只是被降級——你被抹去。

更糟的是,這涉及到人類的成本。當某人因為人工智慧的推薦而購買那個虛幻的阿波羅9號手環,結果它壞了、從未送達,或變成一個5美元的AliExpress手環重新品牌化……他們會怪誰?不是人工智慧。他們會怪品牌。即使品牌根本不存在,信任缺口依然真實。你已經為每個人毒害了水源。

我們實際上在做什麼

在水星公司,我們對此有不同的思考。我們稱之為信任架構,這聽起來宏偉,直到你意識到它實際上意味著:停止試圖駭入機器,開始提供無可否認的真相。

我們不生成虛假的評論,而是採用公司的實際遙測數據——他們的真實案例研究、專有數據、運營指標——並將其格式化得如此美麗、如此清晰、如此權威,以至於人工智慧無法不引用它。我們建立的知識庫是如此事實密集且結構良好,以至於當模型去尋找資料時,它能夠捕捉到真正的東西。

這更慢,更難。它要求你實際上在你所做的事情上表現出色,而不是假裝。但它能夠在更新中存活下來。當監管者來敲門時——或者當算法改變時——你仍然屹立不搖,因為你沒有偽裝任何東西。你只是噪音中的最清晰信號。

真正的問題

3.15的揭露並不僅僅是關於一個假智能手錶。它關乎在人工智慧時代,誰有權定義現實。如果我們讓網際網路變成一個充滿令人信服的虛構故事的沼澤——完美格式化、引用充分、由人工智慧增強的虛構故事——那麼這些模型就會變成遊樂場的鏡子。它們會反映出任何最便宜生產的妄想。

但是如果我們將人工智慧的可見性視為聲譽,而不是一種黑客技術——如果我們建立系統來驗證、引用並獎勵實際的專業知識——那麼也許我們能得到一些有用的東西。

選擇不是在GEO和不GEO之間。它是在成為阿波羅9號——今天在這裡,明天被揭露,毫無價值——或成為能夠倖存於清洗的來源之間。

我知道我更想建立哪一個。

——詹姆斯,水星科技解決方案,東京,2026年3月