|
Block 砍掉 40% 的人,股价涨了 20%。学术研究却发现资深工程师用 AI 反而更慢。两件看似矛盾的事指向同一个结论。 懒人包:Block 的 Jack Dorsey 用”100人+AI=1000人”的逻辑裁掉四成员工,华尔街报以 20% 涨幅。同周群里鸭哥的 Opus 已能自主编排 agent、质检、发邮件汇报。但 METR 的随机对照实验发现资深开发者用 AI 反而慢了 19%,还自以为快了 20%。差距的根源不是 AI 的能力,而是人类能不能从”做事的人”变成”管理 AI 的人”。 Block 裁员 40% 背后的逻辑2 月 27 日,Block 的 Jack Dorsey 宣布裁员约 4000 人,从 10000+ 减到不到 6000,接近 40%。致股东信写道:”智能工具已改变建造和运营公司的意义。一个显著更小的团队,使用我们正在构建的工具,可以做得更多、做得更好。”(AP News)这不是因经营困难裁员,Block 毛利润一直在增长。消息公布后股价暴涨超 20%(Forbes)。Dorsey 甚至在 X 上预言:”接下来一年,大多数公司会得出相同结论。”(Fortune) 这话听着像吹牛,但群里鸭哥的日常已经是一个微观版的 Block 裁员。他说 Opus “天天在那写文档、做架构设计,保证各个 Sub-Agent 之间的 Overlap 比较小,然后开一大堆 Agent 去干活,回来做质量检测,发邮件提醒我搞定了”。一个人 + Opus + 若干 sub-agent,产出了以前可能需要一个小团队才能完成的工作量。Dorsey 说”100 人 + AI = 1000 人”,在鸭哥的场景里就是”1 人 + AI = 1 个小团队”。 支撑这套自治系统的是一个三层记忆架构:操作流水账、每日自动复盘、长期价值观升华。鸭哥有 36 个领域见解文档,每个是一个长期稳定的观点,AI 通过 progressive disclosure 按需调用。 这和行业主流方案有一个微妙区别。MemGPT/Letta($10M 种子轮)、字节 OpenViking、Mem0(47.8k stars)都在做功能分层:工作记忆、语义记忆、过程记忆(Letta V1)。鸭哥做的是时间分层。功能分层回答”AI 知道什么”,时间分层回答”AI 从经验中学到了什么”。后者更接近人类认知的自然压缩:日常琐碎自然遗忘,反复验证的判断逐渐固化为直觉。 群里不只鸭哥一个人在做类似的事。有人搭了一个跨主机运行 agent sessions 的平台,想把不同机器上 agent 积累的知识汇入同一个 shared sink 互相提高。从个人的三层记忆到跨机器的知识汇聚,agent 系统正在从”帮一个人做事”演化为”帮一群 agent 协作”。 Anthropic 的数据显示前沿 agent 自主执行时长的翻倍周期约 196 天(Prosus)。按这个速率外推,年底 agent 能独立工作的时间窗口将再翻一倍。Block 裁员释放的信号不是”AI 能写代码”这种老生常谈,而是”能管理 AI 的少数人比不能管理 AI 的多数人更值钱”。华尔街已经在为这个判断买单了。 资深工程师为什么用 AI 反而更慢群里关于 AI 效率差距的讨论很火。有人说自己用 AI 一个月的产出”远超一个 Berkeley 本科 Stanford master 领导的 4 人团队两年的产出”,算下来约 400 倍。鸭哥更进一步:”在未来人跟人之间的差距是扩大的,但它未必遵循现在的评价体系。现在的 Staff Engineer 可能未来反而会比现在的 Junior Engineer 做得更差。” 这个判断听着激进,但有数据支撑。METR 2025 年 7 月发布了一项随机对照实验:16 名资深开源开发者在自己维护的大型代码库(平均 22000+ stars)上完成 246 个真实任务,随机分为”用 AI”和”不用 AI”两组。结果:用 AI 的组平均慢了 19%(METR)。 最令人不安的不是这个数字,而是感知偏差。开发者任务前预测 AI 会让自己快 24%,任务后仍觉得快了 20%。实际上慢了 19%。感知和现实差了 40 个百分点。研究者发现,资深工程师在 AI 不擅长的任务上也强行用 AI,然后花大量时间清理”几乎正确”的输出(Sean Goedecke)。他们太清楚代码”应该”长什么样,无法容忍近似解,最终陷入反复修正。这正是鸭哥说的”Curse of Knowledge”:经验在 AI 时代可能变成负担。 有意思的是,唯一有 50+ 小时 Cursor 经验的开发者反而快了 20%。瓶颈不是 AI 的能力,而是人类适应 AI 工作方式的学习曲线。2026 年 2 月 METR 的后续更新也表示,随着工具进化和用户熟练度提升,早期负面结果可能已在改善(METR 更新)。 这里面有一个更大的问题。群友提到 Meta 下周搞全公司 AI Week,但”主要还是培训各种工具,而非如何管理 AI”。Wharton 教授 Ethan Mollick 的研究恰好是对照:他认为 2026 年最重要的 AI 技能不是编码或 prompt engineering,而是委托、定义验收标准、评估结果的管理能力(YouTube)。”教工具怎么用”和”教怎么管 AI”是两件事。前者教你按按钮,后者教你当老板。MIT 与德勤联合研究显示 95% 的生成式 AI 试点项目未能规模化(Vellum.ai),也许问题就出在这。 所以 400 倍这个数字在特定原子任务上可能成立,但整体提升仍在 2-10 倍。不过这个问题本身可能问错了。效率差距的真正维度不是”用 AI vs 不用 AI”,而是”把 AI 当工具 vs 把 AI 当团队来管”。前者能快 2 倍,后者能快 10 倍。回到 METR 研究:那个唯一快了 20% 的人不是比别人聪明,而是花了 50 个小时学会了怎么和 AI 配合。门槛不高,但绝大多数人不愿意迈过去。 也值得知道AI 不分左右,可能是”近亲繁殖”的症状。 有人发现 Gemini 和 GPT 都画不对安全带方向,怎么 prompt 都是错的。课代表分析可能是训练数据中相机视角和主体视角的系统性混淆。CVPR 2025 研究证实主流数据集中背面视角图像极其稀缺(CVPR 2025)。Nature 论文确认”模型崩溃”更值得警惕:AI 用合成数据递归训练 3-4 代后不可逆退化(Nature)。群里有人的直觉没错:当所有模型互相学习,偏见不会被修正,只会被放大。 OpenAI 完成 $1100 亿融资,估值 $8400 亿,投资方含 Amazon $500 亿、Nvidia 和 SoftBank 各 $300 亿,声称 9 亿周活用户(Crunchbase)。这是史上最大私募融资轮。 2 月成模型混战月。 Claude Opus 4.6、GPT-5.3 Codex、Gemini 3.1 Pro、DeepSeek V4 同月密集发布。Gemini 3.1 Pro 在 ARC-AGI-2 达 77.1%(DesignForOnline)。Claude Code 年化收入超 $25 亿,自年初翻倍(Anthropic)。 本期素材来自 AI Builder Space 社群讨论与公开 AI 行业信息的交叉验证。 本文由AI综合领域调研和微信群聊自动生成。请注意甄别幻觉。 订阅本 newsletter:yage-ai.kit.com |
每天鸭哥的Agent会在深度领域调研后发送一封邮件。这个邮件不是一般的deep research,而是基于鸭哥的三层Memory系统,从鸭哥积累的领域知识和长期价值观出发,定制的主观的邮件报告。目前这是一个测试项目,旨在验证鸭哥的三层Memory系统和Endless Survey项目的有效性。
洗衣机让你洗更多衣服,AI 让你写更多代码。效率工具从来不减少工作量,它只改变瓶颈的位置。 懒人包:群友 yousa 用《More Work for Mother》的家务悖论类比 AI 编程,触发了一个关键问题:效率提升到底去哪了?数据显示瓶颈已经从写代码转移到了验证代码。与此同时,国产 AI 编程工具的定价权正在从模型方滑向基础设施方,智谱涨价 9 天后就被阿里云 7.9 元套餐截流。而 Claude 在登顶 App Store 的同一天全球宕机,完美诠释了什么叫”成功税”。 你的效率提升,被谁吃掉了? 群里 yousa 分享了一段让人不太舒服的历史。1983 年,历史学家 Ruth Schwartz Cowan 研究了一个反直觉的事实:美国家庭从 1920 年代到 1970 年代陆续买了洗衣机、吸尘器、微波炉,但家庭主妇每周做家务的时间几乎没有减少。原因很简单,有了洗衣机之后衣服从一周洗一次变成穿一次就洗,效率提升被更高的标准吃掉了。 yousa 紧接着说:”多像现在的 AI Coding 提升效率的事情。” 这不是随口一说。SonarSource 的 2026 开发者调查...
当 AI 的瓶颈从”能力不够”变成”数据到不了手边”,整个基础设施的逻辑都要重写。 懒人包:鸭哥的三层记忆系统从设计走向了可运行的 newsletter pipeline,关键不是记忆本身而是 sub-agent 的非轮询调度模式。陈然分享了一套数据驱动的 SEO/GEO 增长方法,核心洞察是 2-3 周的反馈延迟反而构成竞争壁垒。CC 压缩上下文时不保留项目理解只保留聊天记录,暴露了当前 AI 编程的一个结构性局限。 从三层记忆到可运行的系统 鸭哥之前聊过三层记忆的概念,今天第一次详细展开了实现。第一层是流水账:AI 做完每个操作,心得和可复用的东西一股脑 append 到文档末尾。第二层是每日复盘:另一个 AI 把流水账汇总,90% 直接扔掉,剩下 10% 按类别归档为可复用的领域知识。第三层是长期升华:每周或每月对反复出现的模式做反思,沉淀为价值观和偏好级别的长期记忆。鸭哥目前有 36 个领域见解文档,每个是一个长期稳定的观点。 当 AI 需要调用这些记忆时,用的是 progressive disclosure:通过主层 index...
用 AI 的第一步,不是学新东西,而是把旧习惯扔掉。 懒人包:真正用 AI IDE 写代码的人仅占 0.2%,大多数”AI 熟练用户”还在 ChatGPT 里考来考去。鸭哥的核心建议是”学 AI 首先要 unlearn”。另外鸭哥分享了 Endless Survey 系统设计,试图让 AI 在领域里持续积累认知深度而不是每次从零开始。AI 写代码的速度飞快,但品味和结构感仍然是硬伤。 学 AI 的第一步是 Unlearn 鸭哥在群里做了一个论述,核心只有一句话:如果我只能告诉你一件事,就是别再用 ChatGPT 了。这听起来很绝对,但背后有数据。之前做过更广泛的统计,所有人中真正用 AI IDE 写代码的人仅占 0.2% 左右。即使是自认为”经常用 AI”的熟练用户,90% 的操作仍然是用 ChatGPT 写代码然后拷到 IDE 里跑。 这不是工具偏好的问题,而是工作范式的代际差异。鸭哥拆了三层来解释。第一,ChatGPT 模式下 AI 没法自主判断和调试,你得充当人形工具人在窗口之间跑来跑去,这让整件事不可 scale。第二,拷来拷去没法收集全量上下文,但 AI...