真正应该担心的,不是AI替代我们,而是我们忘了怎么思考
◆ ◆ ◆
一个让工程师沉默的数字
2024年10月,谷歌内部会议上,有工程师被告知:公司25%的新代码已由AI生成,人类审核通过即可提交。彼时,大多数人的反应是——"还好,才25%,我还有75%的空间。"
18个月后,这个数字变成了75%。
不是25%增加了50个百分点。是人类主导代码的空间,缩小了三分之二。
![]() |
| Google CEO Sundar Pichai and DeepMind CEO Demis Hassabis. Raj K Raj/Hindustan Times via Getty Images |
问题是,
我们,还剩什么?
这不是一个悲观主义者的焦虑,而是一个在任何理性人头脑中都会出现的合理问题。谷歌的75%,不是孤立事件,它是一面镜子——照出了这个时代所有知识工作者正在经历的同一场震荡。
但我想说的不是"如何应对AI",那类文章已经太多了。我想说的是:这场震荡背后,有一个被大多数人忽略的更深层问题——
AI与人类的关系,从来就不是替代问题,而是一场关于"谁来定义工作意义"的博弈。
◆ ◆ ◆
数字背后的真实叙事
在讨论这个问题之前,我们先还原一下这组数字的真实含义。
2024年10月:AI生成代码占25%
2025年秋季:突破50%
2026年4月:达到75%
如果你只看这组数据,很容易得出一个结论:AI在加速抢夺工程师的工作。
但等一下。
这组数字有一个致命的语境缺失:谷歌的工程师团队在这18个月里,并没有相应缩减75%。
皮查伊的原话是,AI协作让效率提升了6倍。这意味着,谷歌实际上是在用同等规模的工程团队,完成了原来6倍的代码产出。
换一个角度:如果一个工厂引入了机器,工人从手工拧螺丝变成了监控机器拧螺丝,你会说"工人被替代了",还是"工人的角色改变了"?
这个类比乍看有道理,但细想有个陷阱——拧螺丝从来不是工人的核心价值,但写代码,对许多程序员来说,就是他们的全部。
这才是真正的危机所在。
不是失业,是失去意义感。
一个从业15年的工程师,他的职业自尊建立在"我能写出别人写不出来的代码"这件事上。当AI可以在30秒内生成一个他写3小时才能完成的功能,他的职业认同去哪里了?
绩效考核里新增了"AI工具使用目标"。谷歌强制要求工程师把代码生成、调试交给AI,然后人类负责审核、架构设计和安全把关。
听起来是升级,感觉像降级。
这种矛盾感,才是75%这个数字真正在制造的东西。
◆ ◆ ◆
三种流行的错误叙事
在理解我们真正身处哪个时代之前,有必要先解构三种流行的错误叙事。
错误叙事一:"AI是工具,工具不会取代人。"
这个说法的逻辑是:锤子不会取代木匠,所以AI不会取代程序员。
问题在于,这个类比假设了工具的使用门槛是恒定的。锤子需要人来挥舞,但AI不一样——它会自我学习,它的使用门槛趋近于零,而且它能胜任的任务边界在持续扩张。
更准确的类比不是"锤子和木匠",而是"自动化流水线和工厂工人"。流水线也是工具,但它确实重新定义了工厂工人这个职业,而不只是给工人添了一把锤子。
错误叙事二:"AI会创造更多工作岗位。"
这是技术乐观主义者最爱说的一句话,通常伴随着对工业革命的引用——蒸汽机淘汰了纺织工人,但也创造了新的工厂岗位。
这个逻辑有一个时间维度上的盲点:工业革命的过渡周期是几十年,而当代AI的能力扩张周期是几个月。
谷歌的75%从25%增长到这里,只用了18个月。
工业革命时,被淘汰的工人至少有20年时间让下一代接受新教育。但在AI时代,一个软件工程师可能在职业生涯中途,就发现自己的核心技能被系统性替代,而没有一代人的缓冲期来重新出发。
错误叙事三:"只要保持学习,就能跑赢AI。"
这是一个政治正确但极度危险的安慰剂。
它的前提是:人类通过学习新技能,总能找到AI做不到的事。
但这个逻辑有一个致命弱点:当AI的学习速度远超人类,"保持学习"的策略就变成了在一场你永远无法追上的马拉松里保持奔跑。
这不是说学习没用。而是——如果你只是在学AI能做的事,你只是在缩短被替代的时间。
◆ ◆ ◆
三层能力金字塔:一个更诚实的框架
那我们应该如何理解人类在AI时代的价值?
我想提出一个框架——三层能力金字塔。
底层:执行技能层
这是AI最先、也是最彻底攻占的领域。代码生成、文案撰写、数据整理、图像处理……这些任务有明确的输入输出,有可量化的质量标准,有大量历史数据可以训练。
谷歌75%的代码就在这一层。这一层不是"AI辅助人类",而是"人类审核AI"。角色已经倒置了。
这一层的人类价值,正在以每年50%的速度贬值。
中层:判断决策层
要求我们在信息不完整、场景复杂、有利益冲突的情况下,做出有价值的判断。
比如,架构设计——不是"这段代码能不能跑",而是"这个系统架构在三年后还适不适合公司的发展方向"。
比如,产品决策——不是"这个功能能不能实现",而是"这个功能应不应该做"。
比如,危机处理——不是"如何按流程操作",而是"这个流程在当前情境下是否还适用"。
AI在这一层有用,但还没有主导权。主要原因不是算法能力不足,而是这类判断需要嵌入具体的组织情境、权力结构和历史背景——这些东西很难被完全数字化,也很难被充分训练。
这一层,是当前最值得人类投资的能力区域。
顶层:价值观与意义层
这是目前最难被AI替代的层次,也是最少被讨论的层次。
"为什么要做这件事",不是"怎么做这件事"。
谷歌的工程师转向审核、引导、校验AI生成的代码——但谁来决定公司应该用AI开发什么,不应该开发什么?谁来定义"效率提升6倍"背后的伦理边界?当AI代码出现问题,谁来承担真正的责任——是生成代码的AI,还是批准代码的工程师?
这些问题的答案,不在任何训练数据里。它们需要人类的价值判断、道德直觉,以及对"我们为什么存在"这个问题的思考。
AI可以生成答案,但它无法拥有立场。
立场,是人类最后的护城河。
◆ ◆ ◆
谷歌的75%,只是开始
让我们把视角从谷歌这一家公司,拉回到整个时代。
2026年,全球范围内发生的事,远不止谷歌一家。微软的GitHub Copilot已进入数百万工程师的日常工作流;亚马逊的AI代码助手显著提升了AWS开发效率;Meta、Salesforce、甲骨文……几乎每一家科技巨头都在推进类似的AI代码整合。
这不是某个公司的激进实验,这是整个行业正在收敛的方向。
更值得关注的是扩散效应——AI代码化的浪潮不会止步于软件行业。法律文书、医学报告、财务分析、新闻写作……每一个有明确输入输出的知识工作,都在等待被同样的逻辑吞噬。
麦肯锡的研究曾估算,全球知识工作者中,约60%的人有超过30%的工作时间用于可被AI自动化的任务。
30%,只是当前的可替代比例。
而我们刚刚目睹了谷歌把这个数字从25%推到75%,只用了18个月。
这不是线性增长,是指数级爆发。
◆ ◆ ◆
不是所有人都在被淘汰:谁在这个浪潮里真正受益?
我不是要制造恐慌。我想区分两类人,因为他们的处境是完全不同的。
第一类人:把职业价值建立在"执行技能"上的人。
这类人的竞争优势来自"我比别人做得更快更好"。手速快、不出bug、代码整洁……这些是传统程序员的美德。
但这些美德,正在被AI的速度和精度碾压。
这不是他们的错,是游戏规则变了。
第二类人:把职业价值建立在"判断和立场"上的人。
这类人的核心能力是——在混乱中找到正确的问题,然后用AI高效地找到答案。
他们可能不是最好的程序员,但他们知道为什么要写这段程序;他们可能不是最快的撰稿人,但他们知道这篇文章应该说什么、不应该说什么。
在AI时代,"提出正确的问题"比"给出正确的答案"更值钱。
这是一个深刻的价值反转。
工业时代,答案是稀缺资源——技能、知识、经验都是护城河。AI时代,答案开始泛滥,判断才是稀缺资源。
◆ ◆ ◆
真正的危机不是失业,是失去学习方向
我们都见过太多对AI焦虑的人,他们的焦虑往往集中在一个错误的问题上:
"AI会不会取代我的工作?"
这个问题问错了。
更值得问的问题是:"我正在学习的那些技能,是在三层金字塔的哪一层?"
如果你把过去两年的精力用在学Prompt Engineering、学AI工具的使用技巧、学如何调用API——你在底层。这些技能当然有价值,但它们的有效期越来越短,因为AI工具本身在不断降低使用门槛。
如果你把精力用在培养行业判断力、建立真实的用户洞察、积累不可复制的决策经验——你在中层和顶层。这些能力的有效期,至少还有10年。
学习本身没有问题,方向才是问题。
◆ ◆ ◆
"人机协同"的糖衣:一种新的权力关系
"人机协同"这个词,正在成为一种叙事型的“糖衣炮弹”。
它让AI与人类的关系听起来像是平等的合作——AI出力,人类出智慧,双方各取所需,皆大欢喜。
但实际上,谷歌的做法已经说明了真实的权力结构:工程师被纳入绩效考核体系,被要求使用AI,被要求把编码工作交给AI,然后去审核AI的产出。
这不是"人机协作",这是人类被嵌入AI的生产流程。
区别在哪?
合作意味着双方都有议价权。但当你的绩效考核里写着"必须使用AI工具",当不用AI就意味着考核不达标,人类在这段关系里的议价权在哪里?
这不是谷歌的问题。这是整个行业正在悄悄发生的权力转移——从"人类选择用什么工具",变成"人类被迫适应工具的逻辑"。
当然,你可以说,这没什么大不了——电力出现时,工人也不得不适应电力驱动的工厂节奏,而不是维持手工时代的工作方式。
但电力只改变了体力劳动的节奏,AI正在改变的,是知识工作者的思维方式。
当你习惯了每次思考问题先问AI,当你习惯了用AI来帮你起草第一稿,当AI成为你认知过程的一部分——你的思维还是你的思维吗?
◆ ◆ ◆
一个更深的忧虑
写到这里,大家可能感受到一些比职业规划更根本的东西。
工作被AI替代导致的失业,可能只是很少的一部分。如果当整整一代知识工作者把越来越多的认知外包给AI之后,人类的思维深度会不会系统性下降?
谷歌的75%是效率奇迹,但如果工程师不再需要亲手从零到一构建一个系统,不再需要在debugging的痛苦中理解系统的每一层逻辑——他们还能拥有足够的判断力,来审核那75%的AI代码吗?
这是一个鸡生蛋、蛋生鸡的问题:AI的存在让人类减少了深度练习的机会,而人类失去深度练习之后,判断AI的能力也随之下降。
谷歌说,所有AI产出必须经过工程师审查、测试与批准。但审查能力本身,是需要大量实践经验积累的。当年轻工程师从入行第一天就使用AI辅助,他们在10年后,是否还具备不依赖AI独立审判的能力?
没有人知道答案。这个实验,正在用一整代工程师作为样本进行测试。
◆ ◆ ◆
我们现在应该做什么
第一:绘制自己的"可替代性地图"。
把过去一个月的工作拆分成任务清单,然后标记:哪些任务"AI可以直接替代",哪些任务"AI需要你大量引导",哪些任务"AI根本不知道从哪里入手"。
后面两类,是你应该加倍投资的能力区域。前面一类,尽快让AI接管,然后用省下的时间去做后两类的事。
第二:主动建立"AI无法复制"的判断素材库。
AI的知识是过去的数据,但你的判断力来自你的真实经历——你参与过的具体项目,你踩过的真实坑,你在利益冲突中做过的艰难决策。
这些东西,无法被AI训练,也无法被AI替代。
把它们系统性地整理、提炼、输出,是你在AI时代建立认知壁垒的核心方式。
第三:刻意保留一些"不用AI"的思维时间。
这不是反技术主义,这是认知“防火墙”。
就像职业运动员即使有先进器械辅助,也仍然需要基础体能训练,知识工作者也需要保留一定比例的"裸思考"——不借助AI,独立分析一个问题,独立写出第一稿,独立推导一个结论。
不是为了证明你比AI强,而是为了维持和发展你独立判断的能力。
◆ ◆ ◆
最后,一个更大的问题
皮查伊在官方博客里写道:"软件的构建方式正在经历深刻变革。"
他说的是软件,但他描述的,是所有知识工作的未来。
当75%的代码由AI完成,工程师的核心职责变成了审核、引导和校验AI。这个转变本身没有对错,它就是正在发生的事实。
但我们需要保持清醒的是:在这个转变中,人类不应该只是被动地"适应AI的逻辑",而应该主动地"定义AI应该服务于什么"。
效率提升6倍,是一个很好的数字。但6倍的效率,用于什么方向?谁来决定这些问题?当AI可以更快地生成更多代码,我们更需要问的是:这些代码,应该用来构建一个什么样的世界?
这个问题,AI永远无法替我们回答。
因为它不知道我们想要什么。
而我们,最好还记得。

评论