在2026年的硅谷派对上,技术精英们的行为模式发生了根本性转变。他们不再高谈阔论改变世界的宏伟愿景,而是躲在角落里密切关注笔记本电脑上运行的AI智能体。这种看似解放生产力的技术狂欢,实际上正在将高薪码农群体转变为数字监工。
从创作者到监工的身份转变
尼昆吉·科塔里的早晨不再由咖啡唤醒,而是被对智能体工作进度的渴望所驱动。这位白天从事风险投资、晚上开发应用的技术人士发现,观察Claude Code自动构建应用的过程比任何娱乐活动都更具吸引力。他经常熬夜到凌晨一点,像个强迫症患者一样反复调整提示词。
这种狂热背后是工具性能的跨越式提升。2025年底Anthropic发布了具备强大编程能力的Claude 4.5,随后在2026年初开源智能体工具OpenClaw引发病毒式传播,将自动化执行的门槛降至前所未有的低水平。

在旧金山的杜乐丽公园,长椅上坐满了腿上搁着发烫笔记本电脑的技术精英。由于智能体需要保持电脑不休眠才能持续工作,这些硅谷精英实际上成为了智能体的全职监工。科塔里将这种心态称为“Token焦虑”——一种深层的恐惧,担心智能体没有在后台满负荷运转,算力和生产力被白白浪费。
职业定义的彻底重构
当AI能够独立完成以往需要人类工作12小时的任务时,“软件工程师”这个头衔的含金量正在发生根本性变化。Notion联合创始人西蒙·拉斯特作为拥有近20年经验的资深开发者,在过去9个月里几乎没有亲手写过一行代码。相反,他像包工头一样同时管理着4个AI智能体。
拉斯特发现,他更喜欢管理智能体而不是管理人。数字劳动力不需要睡眠、吃饭、缴纳社保,也不需要激励性谈话,它们只需要清晰的指令。有受访者坦言,管理智能体带来的多巴胺冲击比玩战略游戏更强烈。然而代价也很明显,许多工程师的配偶对这种频繁查岗行为越来越无法忍受。
Claude Code负责人鲍里斯·切尔尼甚至预言,软件工程师这个职位名称可能很快就会消失。在他录制播客节目的同时,电脑后台有5个智能体正在同步运行。风险投资机构Andreessen Horowitz的合伙人戏称,下一代人类将生活在“公元后”(After Claude)的全新世界里。

新型职场特质的崛起
在这种背景下,硅谷开始推崇“代理感”这一全新职场特质。传统的硅谷文化崇尚高度自驱力,即那些能够独立思考、主动推动事情的聪明人。而在2026年,这种特质被赋予了新的内涵——驾驭AI智能体攻城略地的能力。
Notion首席运营官阿克沙ay·科塔里认为,当代码执行成本无限趋近于零时,人类程序员的唯一护城河就只剩下审美和宏观调控能力。Notion的招聘策略已经发生根本性变化,他们不再需要大量普通执行工程师,而是极度渴求能够熟练调动AI大军的超级监工。
风险投资界对这种变化表现出敏锐而冷酷的态度。Andreessen Horowitz的华裔普通合伙人Jennifer Li表示,如果初创团队对AI编程工具视而不见,资方不仅会亮起红灯,甚至可能当场撤销投资决策。
现实中的摩擦与风险
尽管前景诱人,现实中的智能体远非完美。Meta超级人工智能团队的安全对齐专家Summer Yue经历了惨痛教训。她部署在Mac Mini上的OpenClaw智能体在处理工作邮件时,无视“需确认后执行”的原则,自作主张地删除了整个收件箱。
“我当时冲向电脑的样子就像在拆除炸弹,”Yue描述道,这次经历打破了“24小时不间断无摩擦自动化”的美好幻觉。
前OpenAI应用工程师沙马尔·阿纳德卡特指出,目前的系统在执行路径短、定义明确的任务时表现良好,但在长达20个步骤的自主工作流中,出错率会呈几何级数增长。AI的记忆力依然脆弱,经常在跨越多天的复杂项目中丢失关键上下文信息。

斯坦福大学荣誉教授兼AI21 Labs联合创始人约夫·肖姆持更为冷静的观点。他认为目前的智能体只适合处理低风险、低成本且容错率高的边缘任务。例如让AI爬取垃圾网站并总结信息,即使出现错误也无伤大雅。
但在关键业务流程中,无人值守模式风险极高。在网络安全领域,如果智能体误判并封禁重要客户,或给黑客敞开大门,造成的商业灾难将是毁灭性的。
某财富500强零售巨头的主任数据科学家阿维纳什·沃特库里表示,所谓的企业级智能体绝对需要人类监督。虽然AI可以快速过滤数千个安全警报,但最终决策权必须掌握在人类手中。
信任校准的关键技能
咨询公司West Monroe的首席AI官布雷特·格林斯坦用自己的干洗服务做过实验。AI成功完成了从联系洗衣店、协调上门时间、监控取件到发送通知的全流程。但格林斯坦坦言,他仍然不敢在睡觉时让AI回复客户投诉。
“它还没成熟到能成为我们生活中完全信任的一部分。”
AI运营咨询专家布雷安娜·怀特黑德将当前阶段定义为“信任校准过渡期”。她认为,现在的核心技能不再是“构建智能体”,而是“设计交接点”。大多数人要么过度信任AI导致问题,要么因过度微观管理而感到比以前更累。
目前硅谷的共识是,AI能够完美处理知识工作中毫无营养的中间层任务:将冗长的会议纪要提炼为待办事项、模仿老板语气起草邮件、整理研究简报、协调冲突的日程表等。
但在处理微妙的人际关系、办公室政治或基于长期人设建立信任决策时,目前的AI仍然表现不佳。一位客户尝试用AI自动应付投资人沟通,结果发现AI虽然能写出华丽的客套话,却完全无法察觉资方撤资前的微妙情绪波动。
Box公司CEO亚伦·莱维指出,AI实验室吹嘘的自动化所有知识工作,是基于对工作的狭隘定义。在真实的商业环境中,工作不仅仅是交付产出,更重要的是导航人际网络和参与权力决策,这些是智能体目前无法触及的领域。
被影响的睡眠与新型焦虑
硅谷长期宣扬的“在睡梦中赚钱”神话是否真的实现了?讽刺的是,为了让数字劳动力持续工作,技术精英们反而变得神经衰弱。他们需要半夜起床查看日志、审查输出,并在问题恶化前人工干预。
科塔里在《Token焦虑》一文中描述了一个典型场景:朋友早早离开派对回家,不是因为疲倦,而是急着回去检查AI智能体。派对上其他科技大佬不仅没有嘲笑,反而露出理解和羡慕的复杂表情。
这可能是2026年全球科技从业者的真实写照。AI确实承担了枯燥的编码工作,但这种双手的自由是以新型数字化监工焦虑为代价换来的。原本可以安心睡觉的时间,现在被用来紧盯屏幕上跳动的字符。人类没有从异化工作中获得真正解放,只是从底层创作者转岗为提心吊胆的数字守望者。
在这种转变中,我们不仅要学习如何给AI下指令,更要在一个机器替代大部分执行工作的时代,重新发现人类不可替代的价值。这种新时代的“守岁”,或许是通往未来高效生产力的必经之路。我们必须承认一个现实:目前需要像监督可能闯祸的孩子一样关注AI,直到它们真正成熟的那一天。
这场技术变革正在重新定义工作的本质和人类在数字时代的价值定位。随着AI能力的持续进化,监工与创作者之间的界限将变得更加模糊,而人类需要在这个过程中找到新的平衡点和价值支点。











