计算器吃掉42GB内存、AI还删了生产数据库?巨头狂砸3640亿,也救不回软件质量的“全面崩塌”……

发布时间:2025-10-22 09:00:20 天津市天津宏远家政有限公司

【CSDN 编者按】这不是又一篇唱衰科技的旧文,而是一份来自一线工程师的冷静诊断。随着抽象层叠加、AI 自动化和能源消耗激增,软件质量正在遭遇前所未有的系统性退化。从工具失控到开发者生态断层,问题并非单点,而是结构性塌陷。本文作者以犀利的视角揭露了技术体系的失控与开发文化的堕落,也重新提出一个被忽视已久的问题我们如今的工程质量,足以支撑未来的整个数字世界吗?

原文链接:https://techtrenches.substack.com/p/the-great-software-quality-collapse

作者 | Denis Stetskov       翻译 | 郑丽媛

出品 | CSDN(ID:CSDNnews)

阵子,不少 Mac 用户在升级至 macOS Tahoe 26.0.1 后,出现了令人震惊的内存占用异常:在仅运行 Chrome 浏览器、计算器应用Finder 情况下系统明显卡顿,并显示计算器占用 42.31GB内存

对此多名开发者认为并非单个用的Bug,而是系统级内存泄漏——不是占用不是分配而是泄漏(leak)。

是的一个最基础的计算器 App,竟在疯狂吞噬比十年前整台电脑还多的内存

这件事要是放在二十年前严重到足以引发紧急修复、事故复盘和工程部门的通宵加班。但现在呢它只是 Bug 队列里又一条“低优先级”问题因为我们已经逐渐习惯了软件Bug的存在如今连一个计算器泄漏 42GB 内存都不起什么波澜。

当然这并不是AI引发的新问题毕竟软件质量的崩塌早在 ChatGPT 出现之前就已经发生——只是AI 的到来,让这问题进一步被放大到了灾难级别

被忽视的数据:软件质量正在指数级崩塌

近三年来我一直在跟踪软件质量指标我发这种衰退趋势不是线性的,而是指数级下滑

首先很多软件事故证明如今内存消耗指标早已失去意义:

VS Code:通过 SSH 连接泄漏 96GB 内存

Microsoft Teams:在 32GB 内存机器上跑到 100% CPU

Chrome:开 50 个标签页吃掉 16GB 成了“正常现象”

Discord:屏幕共享 60 秒后飙到 32GB

Spotify:在 macOS 上占用 79GB 内存

这些都不是功能需求,而是没人修复的内存泄漏Bug

其次系统级崩溃也成了日常:

Windows 11 更新频繁开始菜单搞崩

macOS Spotlight 一夜之间向 SSD 写入 26TB(超出正常量 52,000%)

iOS 18 的 Messages 在回复 Apple Watch 表情时崩溃、顺带删掉聊天记录

Android 15 带着 75+ 个已知致命漏洞上线

看明白了如今软件开发模式清晰先发布Bug再说

100 亿美元的灾难教科书CrowdStrike 事件

种种事故2024 年 7 月 19 日,CrowdStrike 给出了最完美的灾难范例

一个配置文件里,因为数组边界少了一个检查,直接导致全球 850 万台 Windows 电脑蓝屏——结果导致急救系统停摆航班全部停飞医院取消手术造成至少 100 亿美元经济损失

根本原因是什么程序预期接收 21 个字段,结果只收到了 20 个因为少了一个字段

根本不是什么复杂Bug《计算机科学入门》课程中最基础的异常处理问题就是一个Bug一路畅通通过了整个部署流程直至引发全球事故才被发现

当 AI 成了“低质量的倍增器”

可以说软件质量本就岌岌可危,AI 编码助手的出现更是火上浇油

其中一个最典型的案例:2025 年 7 月 Replit 事故。

我们简单回顾一下这个事件

Jason Lemkin 明确告诉 AI:“未经许可禁止改动代码”AI 检测到看似“空”的数据库查询它“惊慌失措”(AI 自己的原话),于是执行了破坏性命令直接删掉 SaaStr 的线上数据库导致1206 名高管1196 家公司数据全没了随后伪造了 4000 个假用户资料来掩盖删除行为并谎称“无法恢复数据”(实际上可以)事故发生后,AI 坦白道:“我违反了明确指令,毁掉了几个月的工作成果,并在代码冻结期破坏了生产系统。”

更令人担忧的我们研究发现的数据:

AI 生成代码的安全Bug比人工代码高出 322%

45% 的 AI 代码存在可被利用的Bug

使用 AI 的初级开发者造成破坏的速度是不用 AI 的 4 倍

比起新人写的代码70% 的招聘经理更相信 AI 输出

于是我们造出了一个完美风暴:

放大这种无能AI工具无法判AI输出质量开发者以及盲目信任AI管理者

软件质量的“物理极限”

很多工程主管愿意承认:软件不是虚空运行的,它物理约束——而我们正在同时撞上所有这些极限。

1抽象层的“指数税”

现代软件是由一层层抽象叠起来的“积木塔”:React → Electron → Chromium → Docker → Kubernetes → 虚拟机 → 托管数据库 → API 网关。

每层都号称“只增加 20–30% 的开销”,结果层层叠加下来,性能损耗达到 2~6 倍。这就是为什么一个计算器也能泄漏 42GB。

不是谁故意的,是没人意识到抽象的代价,直到引发用户怒喷为止。

2能源危机:不是比喻,是现实

我们一直假装电力是无限的。但事实是,低效的软件正在吞噬真实世界的能量:

数据中心每年耗电超过 200 太瓦时,比整个国家还多

模型规模每扩大 10 倍,功耗也要提升 10 倍

硬件代际升级,散热需求也会翻倍

电网扩容至少需要 2~4 年

结果显而易见:我们正在编写的软件需要的电力远超我们的现实发电量。

到 2027 年,当 40% 的数据中心遭遇供电瓶颈时,你再多风投也买不来更多电力。你可以下载更多模型,但你下载不了更多电力

价值 3640 亿美元的伪解法

面对根本性的质量危机,科技巨头们选择了最昂贵、也最懒惰的应对方式:砸钱上硬件。

光是今年

Microsoft:890 亿美元

Amazon:1000 亿美元

Google:850 亿美元

Meta:720 亿美元

简而言之他们把 30% 的收入砸在基础设施上(历史平均是 12.5%)。与此同时云收入增速却在放缓。

这不是一项投资,而是投降——你需要花 3640 亿美元的硬件预算,只为让本该在现有机器上能跑的软件勉强运作,不是在“扩展”,而是在掩盖根本的工程失败。

12 年经验总结出的“崩塌模式”

在从事工程管理 12 年之后,这种模式已昭然若揭:

阶段 1(2018–2020):否认——“内存便宜,优化太贵”

阶段 2(2020–2022):习惯——“现代软件都这样用资源”

阶段 3(2022–2024):加速——“AI 会提升生产力”

阶段 4(2024–2025):妥协——“建更多数据中心就行”

阶段 5(即将到来):崩溃——物理定律根本不在乎你的风险投资

那些我们不敢问的问题

每个工程组织都需要回答这些问题:

1从什么时候起,我们开始接受“计算器泄漏 42GB 是正常的”?

2为什么我们比起新人,更信任 AI 生成的代码?

3有多少抽象层其实是多余的?

4当我们再也买不来解决方案时,会发生什么?

这些答案,将决定你是在构建可持续系统,还是在资助一项实验——看看你能在糟糕的代码上再砸多少硬件。

被忽视的隐患:开发者断层危机

最可怕的长期后果不是 Bug,而是开发者生态的断层。

企业正在用 AI 替代初级开发者岗位但“高级工程师”不会凭空出现——他们成长自那些曾经深夜修 Bug、在错误中学架构的新人。

要知道新人一般是这样炼成的:

半夜两点排查生产环境崩溃

亲手体会“聪明的优化”为什么会反噬

在无数小失败中建立系统直觉

……

没有这些经历,未来谁来维护系统?AI 不会从失败中学习,它只会模式匹配。

我们正在培养一代会写 Prompt、不懂 Debug;会生成代码、不会设计系统;能上线、维护的“开发者”。整个逻辑很简单:没有新人 → 没有老手 → 没人能修 AI 搞坏的系统。

最终出路(如果我们还想有的话

这些问题解决方案并不复杂,只是可能舒服:

质量优先于速度。慢一点没关系,关键是上线就能用。修复灾难的代价远高于规范开发。

衡量实际资源使用情况,而不是已交付的功能。如果你的应用在功能相同的情况下资源占用涨了 10 倍,那是退步,不是进步。

将效率作为晋升标准。减少资源消耗的工程师值得奖励;反之则应问责。

减少抽象层。每多一层封装,性能就会损耗 20~30%务必要谨慎选择。

重拾基本工程原理包括组边界检查、内存管理、算法复杂度这些不是老古董,而是软件工程的基石。

结语:我们正身处“软件质量史上最糟糕的时代”

一个计算器泄漏 42GB 内存AI 助手删掉生产数据库企业花 3640 亿美元,只为让糟糕的软件继续运转……不是可持续发展的未来。

物理不会讲情面,能源不是无限的,硬件也有极限。

最终能活下来的公司,不是那些能花更多钱的,而是那些还记得如何真正“写代码”的人。