6 min remaining
0%
危機中的領導力

霧霾問題:為什麼我們失去了建造事物的能力

霧霾問題突顯了工程和軟體領域中關鍵的知識流失,威脅到我們在人工智慧時代有效建造的能力。

6 min read
Progress tracked
6 分鐘閱讀
AI Generated Cover for: The Fogbank Problem: Why We're Losing the Ability to Build Things

AI Generated Cover for: The Fogbank Problem: Why We're Losing the Ability to Build Things

去年我在一個國防產業的座談會上,雷神公司(Raytheon)的首席執行官說了一句話,深深印在我的腦海裡。他在解釋為什麼在五角大廈於2022年下訂單後,重啟刺針飛彈生產需要四年時間。

他們不得不把70歲的工程師從退休生活中拉出來。不是作為顧問,而是作為老師。年輕的員工不知道如何閱讀卡特政府時期的紙本藍圖。測試設備已經不存在。尋標元件在幾十年前就已經停產。2022年下的訂單要到2026年才能交貨,並不是因為資金問題,而是因為這些「知識」已經退休並去世了。五角大廈已經二十年沒有購買新的刺針飛彈。他們以為這項能力會一直... 靜置在那裡。就像一項技能是一個可以存放在倉庫中的實體物品。 had retired and died.

The Pentagon hadn't bought new Stingers in twenty years. They assumed the capability would just... stay on the shelf. Like a skill is a physical object you can store in a warehouse.

然後是Fogbank。這是一種自1975年至1989年用於核彈頭的機密材料。當政府需要為一個延長壽命的計畫再次製造它時,他們發現自己根本無法做到。知道如何製造的人已經去世或退休。雖然有文件存在,但在69百萬美元的失敗嘗試後,這些文件的不足之處才變得明顯。

他們最終生產出一批。它的純度「太高」了。原始過程依賴於一種意外的雜質——這是連原始工程師都不知道的關鍵因素。這種知識不僅僅是失傳了,深層的、未書面化的背景為什麼這個系統有效從未被表達出來。這種知識存在於那些現在已經不在的人們的骨髓中。

我以管理工程團隊為生。當我看到國防工業基礎——無法生產炮彈、單點故障、世代專業知識的蒸發——我不僅僅看到一場軍事危機。

我看到在軟體工程中發生的完全相同的崩潰。而且這一切發生得更快。

和平紅利是人工智慧

1993年,冷戰結束後,五角大廈告訴國防公司的首席執行官們要整合或滅亡。他們優化了極端的成本效率。他們停止了對產量的規劃。他們停止了為他們認為永遠不會來的危機培訓下一代。

在軟體領域,我們的「和平紅利」是人工智慧。

我們已經進入這個優化週期三年了。主要科技公司已經凍結了初級工程師的職位。一項LeadDev的調查發現,54%的工程領導者認為人工智慧助手將永久減少初級招聘。頂尖大學的計算機科學註冊人數正在下降。

這個邏輯很誘人:為什麼要雇用一位初級開發者,當ChatGPT可以在三十秒內生成代碼?

但這裡有個沒有人想大聲說出來的數學問題。一位初級開發者需要三到五年才能成為中級開發者。五到八年才能成為高級開發者。十年才能成為架構師。你無法用金錢購買這段時間。你無法用提示來壓縮它。

當初級工程師使用人工智慧跳過繁重的除錯過程時——當他們繞過那些實際上鍛鍊能力的痛苦錯誤時——他們永遠無法發展出隱性知識。他們變成了「人工智慧提示者」。他們可以告訴機器該做什麼,但他們無法告訴你「為什麼」機器的自信輸出在架構上是有缺陷的。他們無法察覺到壞的模式。他們無法感受到技術負債的累積。當我這一代的高級工程師退休時,我們的知識不會神奇地轉移到人工智慧上。就像Fogbank一樣,它將消失。而留下的「提示者」將不知道他們不知道什麼,直到系統崩潰。 the machine's confident output is architecturally flawed. They can't smell the bad pattern. They can't feel the technical debt accumulating.

When my generation of senior engineers retires, our knowledge will not magically transfer to the AI. Like Fogbank, it will just vanish. And the "prompters" left behind won't know what they don't know until the system collapses.

背景危機

現在,人工智慧程式碼生成的速度非常快。但人類的程式碼審查已經成為瓶頸。業界可預測的解決方案是?讓人工智慧來審查人工智慧的程式碼。

這是一個披著效率外衣的災難性錯誤。

人工智慧並不理解您的業務邏輯。它不知道2019年遷移所產生的歷史技術負債,這些負債仍然困擾著您的資料庫架構。它不知道那個「這個」微服務因為兩年前離開的客戶的法規限制,永遠不能直接調用「那個」微服務。它缺乏上下文。即使您將所有內容都記錄下來——網站書籍、軟體設計文件、完整的測試覆蓋——這一切今天之所以有效,是因為閱讀這些文件的人擁有隱性專業知識來解釋它們。這些文件是一張地圖,但您仍然需要一個理解地形的人。當讀者是「提示者」,而他們實際上並不理解分散式系統時會發生什麼?當審查人工智慧輸出的那個人無法辨識出解決方案是優雅的、正確的,並且that one directly because of a regulatory constraint from a client who left two years ago. It lacks context.

Even if you document everything—Site Books, Software Design Documents, full test coverage—it only works today because the humans reading those documents possess the tacit expertise to interpret them. The documents are a map, but you still need someone who understands the terrain.

What happens when the readers are "prompters" who don't actually understand distributed systems? When the person reviewing the AI's output can't recognize that the solution is elegant, correct, and 災難性的針對您的特定基礎設施?

Fogbank 失敗是因為配方缺乏一種不成文的雜質背景。您的企業軟體將因為完全相同的原因而失敗。人工智慧將生成美麗且功能強大的程式碼,卻慢慢地、無形地摧毀架構—因為活著的人已經不記得當初為何存在這個限制。

我們為什麼建立水星橋

我開始了水星橋因為我看到這個差距在實時擴大。在一方面:人工智慧的執行速度每六個月翻倍。另一方面:人類的情境理解需要十年的時間來建立,並且一個退休就會失去。

水星橋不是另一個人工智慧副駕駛。它不是生成程式碼的更快方式。它是一個架構框架,旨在捕捉、結構化並部署您組織深層的不成文商業背景。

這實際上意味著什麼:

情境錨定:在人工智慧撰寫一行程式碼或草擬策略之前,水星橋強制對您的專有邏輯進行對齊。它映射您的歷史決策、技術堆疊依賴性,以及那些讓您的系統運行的「未知已知」——那些沒有人記錄的事情,因為每個人都認為它們是顯而易見的。

彌補初級差距:因為我們如此深入地結構企業情境,當一位經驗較少的工程師(或一個人工智慧代理)與系統互動時,他們受到您資深專家的護欄限制。我們並不是跳過學習過程;我們提供了一個制度記憶的安全網,讓學習不需要十年的傷痕累累。

決策保險庫:我們不僅僅儲存程式碼。我們儲存程式碼背後的決策。為什麼這個拉取請求被批准?為什麼我們在2024年拒絕了這個資料庫架構?2021年客戶合約中的哪個限制仍然影響著我們今天處理資料的方式?通過保留決策的背景,我們確保人工智慧(以及未來的人類)不會因為無知而重蹈歷史的覆轍。

帳單到期

國防產業賭注地緣政治的和平會永遠持續。他們為這個賭注付出了代價,當世界發生變化時。

軟體產業賭注人工智慧將快速進步,以至於在目前這一代人退休之前,使高層人類的判斷變得過時。這是一個可怕的賭注。如果人工智慧停滯不前——而所有技術最終都會停滯不前——而你花了五年時間解僱初級員工並依賴合成代碼生成,你的公司將有一天醒來,意識到你已經忘記了如何建造自己的產品。

金錢從來不是限制因素。知識才是。而知識,與金錢不同,會隨著擁有它的人而消亡。

你必須在持有知識的人離開大樓之前,將你的背景硬編碼。

—— 詹姆斯,香港水星科技解決方案,2026年5月