2026 年初,波士顿咨询集团(BCG)与加州大学河滨分校发表了一篇重磅研究,首次系统性地描述了一个正在全球职场蔓延的新现象:
AI Brain Fry(AI 脑雾 / AI 脑疲劳 / AI 脑烧)。
约 14% 使用 AI 工具的员工报告曾出现相关症状——注意力难以集中、决策速度变慢、记忆力下降、判断力减弱,甚至头痛。
讽刺吗?一项本该让你"偷懒"的技术,反而把你累坏了。
什么是 AI Brain Fry?
你可能熟悉"职业倦怠"(Burnout)——长期情绪压力积累后的身心俱疲。AI Brain Fry 与之不同:
| AI Brain Fry | 传统职业倦怠(Burnout) |
|---|---|
| 短时间内注意力过度消耗导致 | 长期情绪压力积累导致 |
| 认知疲劳为主 | 情绪耗竭为主 |
| 源于监督 AI 的认知负担 | 源于工作负荷或职场环境 |
简单说:Burnout 是"心累",AI Brain Fry 是"脑子累"。
为什么会这样?四个认知机制
1. 角色逆转:从创作者到评审员
过去你写代码,代码是你思考的延伸。现在 AI 写代码,你是"代码审查员"。
问题在于:审查比创作更累。
当你创作时,心流状态让你沉浸其中;当你审查时,你必须同时扮演"创造者"和"审判者"——这两种认知模式切换本身就消耗精力。
而且 AI 生成的代码看起来总是"自信满满"——无论对错,语气都很确定。你必须时刻保持警觉,像雷达操作员一样盯着屏幕。
2. 信任校准负担
经典的"煤气灯效应"大家都熟悉。AI 完美地实现了这个效果的自动化:
AI 输出看起来总是正确、流畅、权威。
但它可能是完全错误的。
你必须不断判断:“这段代码/文案/分析,可信吗?” 这种持续的怀疑状态,本身就是一种认知税。
3. 监控悖论(Vigilance Decrement)
人类大脑不擅长被动监控。雷达操作员实验早已证明:人在连续监控任务中,警觉性会在 20-30 分钟内急剧下降。
但 AI 的速度是即时的——你刚审完一批,下一批就来了。没有间隙,没有喘息。
结果是:监控者比被监控者先崩溃。
4. 即时反馈循环
传统工作有自然的节奏:写完一封邮件,发送,结束。
AI 工作是永动机:AI 生成 → 你审查 → AI 修改 → 你再审 → AI 再生成…
研究者给这种状态起了个名字:“AI引发的躁狂症”(AI-induced Mania)——大脑被迫维持在高频率的切换状态。
沉重的代价:数据不会说谎
这项涉及 1,488 名美国全职员工 的调查,揭示了一些令人警醒的数字:
- 决策疲劳增加 33% ——出现 AI brain fry 的员工与未经历此状态的员工相比
- 错误率显著上升 ——经历 AI brain fry 的员工自我报告的错误率明显更高
- 心理努力增加 14% ——当员工认为 AI 系统需要大量人工监控时
- 心理疲劳程度增加 12%,资讯过载情况增加 19%
一位受访的财务主管描述了自己的状态:
“在反复使用 AI 进行资料整理与分析后,我甚至无法判断自己做出的东西是否合理,只能隔天再重新思考。”
倒 U 型曲线:3 个工具是效率"甜蜜点"
研究还发现了一个违反直觉的现象:AI 工具的数量与生产力之间呈典型的倒 U 型曲线。
1 | 生产力 |
- 1 → 2 个工具:生产力明显提升
- 2 → 3 个工具:仍能继续提高效率,但幅度开始下降
- 超过 3 个工具:生产力反而开始下降
换句话说:使用 3 个 AI 工具,是效率的"甜蜜点"。不是越多越好。
Meta 的教训:AI 使用量不该是 KPI
研究特别点名了一个案例:Meta 曾把 AI 生成的代码行数作为工程师的绩效指标之一。
在这种导向下,员工会不由自主地增加 AI 使用量——即使这并不一定是最高效的工作方式。
类似的,很多企业开始鼓励员工建立或管理多个 AI agent 系统,甚至把 AI 使用量纳入绩效评估。结果是员工常常需要在搜索 agent、研究 agent、编程 agent 与设计工具之间频繁切换,反而增加了工作复杂度。
谁最容易中招?
软件开发者
AI 生成代码的审查比人工代码更危险——因为 AI 代码往往看起来更好(更规范、更完整),但隐藏着安全漏洞。你需要比读自己代码更仔细地读 AI 代码。
知识工作者
分析师、法务、营销人员——每天审核 AI 生成的报告和文案。问题是:AI 写的东西看起来总是很专业,你怎么知道哪个是真正专业的,哪个是"一本正经地胡说八道"?
客服与销售
快速审核大量 AI 生成的客户回复。在这种高频场景下,认知疲劳来得最快。
反直觉发现:AI 也能减少倦怠
等等,研究还发现了一个反直觉的事实:
当 AI 用于替代重复性工作时,员工的职业倦怠程度反而降低 15%。
这类任务通常被称为 “toil”(苦差事)——资料整理、格式化、例行报告。
在这种情况下,AI 确实在解放人类,让人投入更具创造性或策略性的工作,并提高工作满意度和团队互动。
问题不在于 AI 本身,而在于如何使用 AI。
把 AI 当"替身演员"(替我做无聊的事)→ 减轻疲劳
把 AI 当"实习生"(替我思考,但需要我审核)→ 增加疲劳
企业如何应对?BCG 提出的四项建议
BCG 董事总经理兼研究作者之一 Julie Bedard 表示:
“这项研究是一个早期的警告信号,显示人们对于 AI 生产力的预期可能需要重新调整。如果 AI 已经导致员工认知负荷过重,企业或许需要重新思考这些假设。”
研究为企业提出了具体建议:
- 重新设计工作流程 — 让 AI 与人类形成完整协作系统,而不是单纯增加工具
- 明确定义 AI 使用目的与预期 — 避免员工误以为必须完成更多任务
- 绩效指标转向实际成果 — 从"AI 使用量"转向真正的工作成果,避免为效率而造成认知负荷
- 培养员工管理 AI 的技能 — 例如问题框架构建、分析规划和策略优先排序
个人如何应对?
1. 限制审查时段
每 20-25 分钟 AI 审查后强制休息。不要连续监控超过 30 分钟——这和开车需要休息是一个道理。
2. 保留无 AI 工作时间
刻意练习不依赖 AI 的独立工作。这不仅是维持技能,更是给大脑一个"不用审核"的时间窗口。
3. 建立结构化检查清单
对高风险 AI 输出(如代码安全、财务计算、法律文案)使用清单检查。这比"凭感觉判断"省力得多——清单是可重复的,判断是消耗精力的。
4. 选择性使用:有时自己做更省力
不是所有任务都适合 AI。一个简单判断标准:
如果"自己做"比"审 AI"更省力,那就自己做。
把 AI 留给真正需要它、且你愿意为审查付出精力的任务。
结语
AI Brain Fry 的本质,是一次关于认知边界的警示。
我们常常讨论 AI 能做什么、不能做什么,却很少问:AI 做的事,我们需要付出多少认知代价来"兜底"?
效率从来不是免费的。有时候,节省下来的时间,会以认知超载的形式反噬。
AI 是工具,不是大脑的替代品。
学会为它设置边界,才是真正的效率。