组织内部价值坐标系的重排 | 读《 Anthropic Economic Index》报告

我最近反复读了一份报告:Anthropic 在 2025 年发布并持续更新的 Anthropic Economic Index。

它吸引我的地方不在于"结论多新",而在于它换了一种看问题的方式。

大多数关于 AI 的讨论,习惯直接问一个问题:这个岗位会不会消失?

而这份报告刻意回避了这个提法,它做了一件更"笨"、但也更接近现实的事——把岗位拆成任务。

在它的分析框架里,没有"程序员"、“分析师”、“编辑"这些整体概念,只有具体的工作单元:写一段代码、整理一份数据、生成一版初稿、校对一次逻辑。AI 的渗透,是发生在这些任务层面的,而不是一刀切地作用在岗位上。

这个视角非常关键。因为一旦你接受"岗位不会整体消失,但内部结构会被重排”,后面的很多现象就变得可解释了。

从真实使用数据看,AI 覆盖得最快的,是文本处理、逻辑推演、规则明确的任务;几乎不涉及需要物理操作、复杂情绪判断或高度情境化协作的部分。

这意味着,大多数岗位并没有被替代,而是被重新分工:基础、标准化的任务被迅速压缩,剩下的工作则越来越集中在判断、整合和责任承担上。

这也是为什么,现实中并不存在"额外付出完全没有回报"这件事。回报并没有消失,而是不再平均地分布在"多干一点"上。

当基础任务被 AI 吃掉之后,组织真正开始付费的,是另一类东西:在不确定条件下做决定、在系统缺口中兜底、在风险发生前承担责任。这些东西很重要,但有一个问题——它们很难被标准化评估。

于是,一个熟悉的张力出现了:一方面,组织仍然在奖励高绩效;另一方面,很多人却感觉这种奖励越来越"不透明"。

这并不完全是管理失灵,而是价值识别机制滞后于价值结构变化。

当贡献无法完全通过流程、指标、考核被识别时,它就会通过信任、授权、默契这些非正式方式被识别。于是,我们看到一些被简单归因为"关系"、“嫡系”、“站队"的现象。但从结构上看,这更像是:判断权已经开始值钱,但还没有被正式定价。

Anthropic 的后续数据其实进一步印证了这一点。企业场景中,AI 的使用更偏向自动化,且集中在流程稳定、目标明确的环节;而真正高价值、影响方向的决策任务,AI 仍然只能辅助。这导致一个结果:系统性工作的"人"在减少,系统外判断的"人"在变贵。

从决策者的角度看,这里真正棘手的,不是"要不要用 AI”,而是两个更现实的问题:

第一,组织是否愿意为判断型价值付出结构成本,把原本依赖个人关系和隐性信任的贡献,逐步拉回到制度中?

第二,如果不愿意,那么是否接受一个事实:非正式结构会继续存在,并且会越来越影响资源分配。

对个体也是同样的逻辑。真正被压缩的,不是能力本身,而是可替代的那一部分能力。而能持续产生议价空间的,是那些仍然处在"任务拆解之外"的判断和责任。

所以,AI 对劳动力市场的影响,本质上不是岗位数量的变化,而是组织内部价值坐标系的重排。

谁能被系统吸收,谁只能靠关系被识别,这条分界线,正在变得越来越清晰。

这也是为什么,这一轮变化更像一次压力测试。它测试的不是"谁会被淘汰",而是谁的价值,已经不再适配原有的组织定价方式。