Block 砍掉 40% 的人,股价涨了 20%。学术研究却发现资深工程师用 AI 反而更慢。两件看似矛盾的事指向同一个结论。 懒人包:Block 的 Jack Dorsey 用”100人+AI=1000人”的逻辑裁掉四成员工,华尔街报以 20% 涨幅。同周群里鸭哥的 Opus 已能自主编排 agent、质检、发邮件汇报。但 METR 的随机对照实验发现资深开发者用 AI 反而慢了 19%,还自以为快了 20%。差距的根源不是 AI 的能力,而是人类能不能从”做事的人”变成”管理 AI 的人”。 Block 裁员 40% 背后的逻辑 2 月 27 日,Block 的 Jack Dorsey 宣布裁员约 4000 人,从 10000+ 减到不到 6000,接近 40%。致股东信写道:”智能工具已改变建造和运营公司的意义。一个显著更小的团队,使用我们正在构建的工具,可以做得更多、做得更好。”(AP News)这不是因经营困难裁员,Block 毛利润一直在增长。消息公布后股价暴涨超 20%(Forbes)。Dorsey 甚至在 X...
1 day ago • 1 min read
当 AI 的瓶颈从”能力不够”变成”数据到不了手边”,整个基础设施的逻辑都要重写。 懒人包:鸭哥的三层记忆系统从设计走向了可运行的 newsletter pipeline,关键不是记忆本身而是 sub-agent 的非轮询调度模式。陈然分享了一套数据驱动的 SEO/GEO 增长方法,核心洞察是 2-3 周的反馈延迟反而构成竞争壁垒。CC 压缩上下文时不保留项目理解只保留聊天记录,暴露了当前 AI 编程的一个结构性局限。 从三层记忆到可运行的系统 鸭哥之前聊过三层记忆的概念,今天第一次详细展开了实现。第一层是流水账:AI 做完每个操作,心得和可复用的东西一股脑 append 到文档末尾。第二层是每日复盘:另一个 AI 把流水账汇总,90% 直接扔掉,剩下 10% 按类别归档为可复用的领域知识。第三层是长期升华:每周或每月对反复出现的模式做反思,沉淀为价值观和偏好级别的长期记忆。鸭哥目前有 36 个领域见解文档,每个是一个长期稳定的观点。 当 AI 需要调用这些记忆时,用的是 progressive disclosure:通过主层 index...
1 day ago • 1 min read
用 AI 的第一步,不是学新东西,而是把旧习惯扔掉。 懒人包:真正用 AI IDE 写代码的人仅占 0.2%,大多数”AI 熟练用户”还在 ChatGPT 里考来考去。鸭哥的核心建议是”学 AI 首先要 unlearn”。另外鸭哥分享了 Endless Survey 系统设计,试图让 AI 在领域里持续积累认知深度而不是每次从零开始。AI 写代码的速度飞快,但品味和结构感仍然是硬伤。 学 AI 的第一步是 Unlearn 鸭哥在群里做了一个论述,核心只有一句话:如果我只能告诉你一件事,就是别再用 ChatGPT 了。这听起来很绝对,但背后有数据。之前做过更广泛的统计,所有人中真正用 AI IDE 写代码的人仅占 0.2% 左右。即使是自认为”经常用 AI”的熟练用户,90% 的操作仍然是用 ChatGPT 写代码然后拷到 IDE 里跑。 这不是工具偏好的问题,而是工作范式的代际差异。鸭哥拆了三层来解释。第一,ChatGPT 模式下 AI 没法自主判断和调试,你得充当人形工具人在窗口之间跑来跑去,这让整件事不可 scale。第二,拷来拷去没法收集全量上下文,但 AI...
1 day ago • 1 min read
同一个 LLM,给它不同的上下文,输出质量天差地别。所以管理 AI 的核心不是选哪个模型,而是设计什么样的上下文。 懒人包:Opus 做思考、便宜模型做执行的分层工作流正在成为主流用法,它背后的逻辑是思考和执行的成本结构完全不同。OpenClaw 作为公司级 AI Infra 的定位正在被验证,核心价值不是智能本身而是”在熟悉的界面里用上 Opus”。另外,AI 时代的工作时间反而变长了,原因不是效率不够,而是人的角色还没从 IC 升级到管理者。 Opus 做思考,便宜模型做执行 鸭哥又摸索出来一个”穷逼”的搞法:在 OpenCode 里先用 Opus 做深入思考,然后让它写 prompt 文件,再调用 API submit 一个 job,用更便宜的模型通过那个文件进行交接继续执行。群里的实践也印证了这个思路:有人让 Opus 写 plan,GPT review,来回几轮迭代之后用 Sonnet 写代码,Composer 做 CI/CD。另一个人只用 Opus 做 plan,写代码都改用 Codex + Kimi。...
2 days ago • 1 min read
当写代码的成本趋近于零,”什么值得做”这个判断本身成了真正的稀缺品,而大多数人还在优化”怎么做得更快”。 懒人包:编码提效的红利正在快速消退,瓶颈从”能不能做”转向”该不该做”,需求发现能力成为新的稀缺资源。个性化工具和商业化产品是完全不同的物种,AI 降低开发成本后解锁的恰恰是那些以前”不值得做”的低效益场景。另外,Agent 编排的核心难题不是智能不够,而是反馈链路断裂。 需求发现比需求实现更难 群里有人说了一句大实话:研究了好几个月 AI coding 提效的实践之后,发现这事逐渐没那么重要了。瓶颈已经不在”有想法但没时间做”,而变成了”想法都可以实现,但怎么把想法打磨成真正有价值的需求”。做一个或者十个没人用的自嗨工具,又有啥区别呢?...
2 days ago • 1 min read
把 analytics data、代码和 git history 放在一起,AI 就能自己发现什么 work 什么不 work。这不是偷懒,这是在把判断力系统化。 懒人包:有人尝试把 analytics data 做 daily dump 放进 monorepo,让 AI 实现”半自治”决策;Cursor 和 OpenAI 的最佳实践收敛到同一个方向:不要分角色,只要 planner + executor;群里讨论 AI 看门狗和 guardrails,因为有人的 OpenClaw 又把自己改死了。 当 AI 能同时看到代码和数据 群里有人分享了一个实践:把 analytics data 做 daily dump 放进代码仓库。听起来有点反直觉,毕竟传统做法是代码归代码、数据归数据库、分析归 BI 工具。但他发现效果非常好:AI 能根据 analytics data 理解产品做了什么,结合 Git history 理解什么改动带来了什么结果,然后自己判断下一步该做什么。他的原话是”基本实现了半自治”。 这个想法的价值不在于技术实现(daily dump...
2 days ago • 1 min read
记忆不是存储问题,是架构问题。AI 没有记忆力差这回事,只有基础设施差这回事。 懒人包:鸭哥分享了三层记忆系统(流水账-周度提炼-长期沉淀)解决 AI 记忆碎片化;multi-agent 的真实价值是 90/9/1 分布;Anthropic 揭露 DeepSeek、Moonshot、MiniMax 大规模蒸馏攻击。 给 AI 装一套记忆系统 群里有人问了一个很好的问题:我用 Cursor、Claude Code、Codex、GeminiCLI、Antigravity、OpenCode 这么多工具,每个工具里积累的经验碎片化地分布在不同地方,怎么跨工具调用? 这个问题看起来是工具问题,实际上是架构问题。鸭哥给出了一个完整的方案,核心是两层:工具统一用 OpenCode(原生支持各种模型),文件统一放 Monorepo(所有项目在同一个文件夹,AI 都能 access)。在此基础上,他设计了一个三层记忆系统。 第一层是流水账。每天 review 当天改过的所有 .md 文件、录音、会议记录、代码...
2 days ago • 1 min read
把模型刻进芯片、把 AI 放进 crontab、把知识刻进记忆系统,这三件事听起来毫无关联,但它们解决的是同一个问题:如何让智能从”调用”变成”存在”。 懒人包:ChatJimmy.ai 把模型刻进芯片引发 dev time vs run time 的讨论;教非技术人群用 AI 的最大门槛是认知而非工具;鸭哥把 OpenCode 放进 crontab 标志着 AI 从”调用”变成”基础设施”。 把模型刻进芯片的诱惑与陷阱 群里有人分享了 ChatJimmy.ai 的 demo:把 LLM 的权重直接刻在 ASIC 芯片上,推理速度快到像假的。有人说这像把模型写死在光盘里,有人说是”物理化的模型”。 鸭哥点出了这个思路的核心矛盾:dev time 和 run time 的 trade-off。如果投入大量 dev time(设计芯片、流片),run time 可以缩到极致。CUDA、FPGA、ASIC,dev time 递增,run time 递减,这是芯片设计的经典光谱。 问题在于,这个 trade-off...
2 days ago • 1 min read
约束不是能力的敌人,而是判断力的代理变量。一周烧掉 18 亿 token 之后,最大的收获不是代码,而是对”什么时候该停下来”的理解。 懒人包:OMOC 为一个简单任务开了 9 个 agent 烧了天量 token,引发对 AI 虚荣指标的反思;群里讨论从”过程确定性”转向”结果确定性”的管理范式变化;鸭哥把 AI 接到 Even G2 眼镜上,引发关于”做减法”设计哲学和 0-to-1 场景的讨论。 当 AI 开始向上管理 鸭哥最近用 Oh My OpenCode 做了一件小事:把 iOS 上面四个 pill 换成一个下拉列表。结果呢?它开了 9 个并行 agent,分成 4 个 wave,写了 1000 多行的 plan。鸭哥的原话是”我鸭都傻了”。 这不是个例。群里的体感是一致的:OMOC 的向上管理做得特别好,让你觉得它特别努力,花了很多 token,但出来的活的质量跟不用它差不多。有人用 Antigravity 的 Sonnet 4.6 跑,发了一条消息,就把 100% 的限额都耗光了。鸭哥自己一周已经用了 18 亿 token,把...
2 days ago • 1 min read