6 min remaining
0%
危机中的领导力

雾银行问题:我们为何失去了构建事物的能力

雾银行问题突显了工程和软件领域的关键知识流失,威胁着我们在人工智能时代有效构建的能力。

6 min read
Progress tracked
6 分钟阅读
AI Generated Cover for: The Fogbank Problem: Why We're Losing the Ability to Build Things

AI Generated Cover for: The Fogbank Problem: Why We're Losing the Ability to Build Things

去年我在观看一个国防工业小组讨论时,雷神公司的首席执行官说了一句话,像刺一样扎进了我的脑海。他在解释为何在五角大楼于2022年下订单后,重启刺针导弹生产需要四年时间。

他们不得不把70岁的工程师从退休中召回。不是作为顾问,而是作为教师。年轻员工不知道如何阅读卡特政府时期的纸质蓝图。测试设备已经不存在。寻标组件几十年前就已停产。2022年下的订单要到2026年才能交付,不是因为资金问题,而是因为知识已经退休并去世。五角大楼已经二十年没有购买新的刺针导弹了。他们以为这种能力就会……静静地放在货架上。就像一种技能是你可以存放在仓库里的物理物品。 had retired and died.

The Pentagon hadn't bought new Stingers in twenty years. They assumed the capability would just... stay on the shelf. Like a skill is a physical object you can store in a warehouse.

然后是Fogbank。这是一种在1975年至1989年间用于核弹头的机密材料。当政府需要为一个延续生命的项目重新制造它时,他们发现他们根本无法做到。知道如何制造的人要么已经去世,要么已经退休。虽然有文档存在,但在经过6900万美元的失败尝试后,文档的不足之处才变得明显。

他们最终生产了一批。这批材料“过于纯净”。原始工艺依赖于一种意外的杂质——这是连最初的工程师都不知道的关键因素。知识不仅仅是丢失了,深层的、未书写的背景关于系统为何有效的原因从未被明确表达。它存在于那些现在已经离世的人的骨髓中。

我以管理工程团队为生。当我看到国防工业基础——制造炮弹的能力缺失、单点故障、代际专业知识的消失——我不仅仅看到的是一场军事危机。

我看到的是软件工程中发生的完全相同的崩溃。而且它发生得更快。

和平红利是人工智能

1993年,冷战结束后,五角大楼告诉国防首席执行官们要么整合,要么灭亡。他们优化了极端的成本效率。他们停止了对产量的规划。他们停止了为他们认为永远不会到来的危机培训下一代。

在软件领域,我们的“和平红利”是人工智能。

我们已经进入这个优化周期三年了。主要科技公司冻结了初级工程师职位。一项LeadDev调查发现,54%的工程领导者认为人工智能助手将永久减少初级招聘。顶尖大学的计算机科学入学人数正在下降。

这个逻辑很诱人:为什么要雇佣一名初级开发者,而ChatGPT可以在三十秒内生成代码?

但这是没人想大声说出来的数学。初级开发者需要三到五年才能成为中级开发者。五到八年才能成为高级开发者。十年才能成为架构师。你无法用金钱购买这段时间。你无法通过提示来压缩它。

当初级工程师使用人工智能跳过艰苦的调试过程时——当他们绕过那些实际上锻造能力的痛苦错误时——他们永远不会发展出隐性知识。他们变成了“人工智能提示者”。他们可以告诉机器该做什么,但他们无法告诉你“为什么”机器的自信输出在架构上是有缺陷的。他们无法嗅到糟糕的模式。他们无法感受到技术债务的累积。当我这一代的高级工程师退休时,我们的知识不会神奇地转移到人工智能上。就像雾霭一样,它将消失。而留下的“提示者”不会知道他们不知道什么,直到系统崩溃。 the machine's confident output is architecturally flawed. They can't smell the bad pattern. They can't feel the technical debt accumulating.

When my generation of senior engineers retires, our knowledge will not magically transfer to the AI. Like Fogbank, it will just vanish. And the "prompters" left behind won't know what they don't know until the system collapses.

上下文危机

现在,AI代码生成速度极快。但人工代码审查已经成为瓶颈。行业的可预测解决方案是什么?让AI审查AI的代码。

这是一个伪装成高效的灾难性错误。

AI并不理解你的业务逻辑。它不知道2019年迁移时留下的历史技术债务,这些债务仍然困扰着你的数据库架构。它不知道那条不成文的规则,即这个微服务绝不能直接调用那个微服务,因为这是两年前一位客户的监管限制。它缺乏上下文。即使你记录了一切——站点文档、软件设计文档、完整的测试覆盖——它今天之所以有效,是因为阅读这些文档的人具备隐性专业知识来解读它们。这些文档是地图,但你仍然需要一个理解地形的人。当阅读者是"提示者",而他们实际上并不理解分布式系统时会发生什么?当审查AI输出的人无法识别解决方案是优雅、正确的时,that one directly because of a regulatory constraint from a client who left two years ago. It lacks context.

Even if you document everything—Site Books, Software Design Documents, full test coverage—it only works today because the humans reading those documents possess the tacit expertise to interpret them. The documents are a map, but you still need someone who understands the terrain.

What happens when the readers are "prompters" who don't actually understand distributed systems? When the person reviewing the AI's output can't recognize that the solution is elegant, correct, and 灾难性的针对您的特定基础设施?

Fogbank 失败是因为配方缺乏关于杂质的未书面化背景。您的企业软件将因完全相同的原因而失败。AI 将生成美丽、功能齐全的代码,但会慢慢、无形地破坏架构——因为没有人记得最初约束存在的原因。

我们构建的原因水星桥

我开始了水星桥因为我看到这个差距在实时扩大。一方面:AI 执行速度每六个月翻一番。另一方面:人类的上下文理解需要十年才能建立,而一个退休就会失去。

水星桥不是另一个 AI 副驾驶。它不是生成代码的更快方式。它是一个架构框架,旨在捕捉、结构化和部署您组织深层的、未书面化的业务背景。

这实际上意味着什么:

上下文锚定: 在人工智能编写代码或制定策略之前,水星桥 强制对您的专有逻辑进行对齐。它映射您的历史决策、技术栈依赖关系,以及那些让您的系统正常运行的“已知未知”——那些没有人记录的事情,因为每个人都认为它们是显而易见的。

弥合初级差距: 因为我们如此深入地构建企业上下文,当一位经验较少的工程师(或人工智能代理)与系统互动时,他们受到您高级专家建立的护栏的限制。我们并没有跳过学习过程;我们提供了一张制度记忆的安全网,以便学习不需要十年的伤疤。

决策库: 我们不仅存储代码。我们存储的是代码背后的决策。为什么这个拉取请求被批准?我们为什么在2024年拒绝这个数据库架构?2021年客户合同中的哪个限制仍然影响我们今天处理数据的方式?通过保留决策的背景,我们确保AI(以及未来的人类)不会因为无知而重蹈历史的错误。

账单到期

国防工业打赌地缘政治的和平将永远持续。当世界发生变化时,他们为这个赌注付出了代价。

软件行业在打赌AI将足够快速地发展,以使高级人类判断在当前一代人退休之前变得过时。这是一个可怕的赌注。如果AI停滞不前——所有技术最终都会停滞不前——而你花了五年时间解雇初级员工并依赖合成代码生成,你的公司有一天会醒来,意识到你已经忘记了如何构建自己的产品。

金钱从来不是限制因素。知识才是。而知识与金钱不同,随着携带它的人而消亡。

你必须在持有上下文的人离开大楼之前将其硬编码。

——詹姆斯,香港水星科技解决方案,2026年5月