[鸭哥 AI 手记] 2026-02-23


记忆不是存储问题,是架构问题。AI 没有记忆力差这回事,只有基础设施差这回事。

懒人包:鸭哥分享了三层记忆系统(流水账-周度提炼-长期沉淀)解决 AI 记忆碎片化;multi-agent 的真实价值是 90/9/1 分布;Anthropic 揭露 DeepSeek、Moonshot、MiniMax 大规模蒸馏攻击。


给 AI 装一套记忆系统

群里有人问了一个很好的问题:我用 Cursor、Claude Code、Codex、GeminiCLI、Antigravity、OpenCode 这么多工具,每个工具里积累的经验碎片化地分布在不同地方,怎么跨工具调用?

这个问题看起来是工具问题,实际上是架构问题。鸭哥给出了一个完整的方案,核心是两层:工具统一用 OpenCode(原生支持各种模型),文件统一放 Monorepo(所有项目在同一个文件夹,AI 都能 access)。在此基础上,他设计了一个三层记忆系统。

第一层是流水账。每天 review 当天改过的所有 .md 文件、录音、会议记录、代码 ChangeLog,做第一轮总结。这一步不做筛选,就是忠实记录。第二层是周度提炼。每周从流水账里总结出有复用价值的 learning,放到更高一层的记忆里。到这一步,大概 90% 的一次性噪声被丢掉了。第三层是长期沉淀。不定期地把反复出现的判断提炼到一个稳定的文件里,这些就是不随时间变化的核心认知。

然后通过 Progressive Disclosure 的 index 系统让 AI 动态加载:先看索引了解全貌,需要细节时再读具体文件。鸭哥目前有好几十个文件的记忆,这套系统跑下来效果不错。

这套方案解决的不仅是”AI 忘了我上次说什么”的问题。它解决的是一个更根本的问题:当你和 AI 协作的时间足够长,你需要一种方式让 AI 理解你的偏好、你的判断标准、你的工作方式。换句话说,你需要把自己的认知模型外化成 AI 可以读取的格式。这和一个新员工入职时读公司文档是同一件事,区别是 AI 每次”入职”都是从头开始,所以文档的质量直接决定了它的工作质量。

有人的 OpenClaw 昨晚把自己的 memory 清空了,但 soul 文件没清空,于是有人问:这算不算转世? 这个玩笑指向了一个真问题:记忆和身份的关系是什么?如果 AI 的行为主要由 system prompt(soul)决定,那 memory 只是加速收敛的工具;如果 memory 才是决定性的,那每次清空就是一次死亡。


90/9/1:并行的真实价值分布

群里关于 multi-agent 的讨论终于形成了一个清晰的共识。鸭哥给了一个数字:multi-thread 解决 90% 的场景,subagent 解决 9%,agent team 只适合 1% 的极端情况,而且需要很高的 AI 管理水平,ROI 很难 justify。

这个比例之所以重要,是因为它指出了行业当前的一个错位:大量的讨论和工具开发聚焦在那 1% 的 agent team 场景上,但 99% 的实际需求用更简单的方式就能满足。

有人分享了一个具体的翻车案例:让 AI 做一个大 feature request,plan 写完后没看完就让它跑了,两个小时后回来发现跑偏了。复盘后发现:AI 确实一板一眼地把 plan 里的每一步都执行了,锅在自己没有审完 plan。但更深一层的问题是:plan 太长,本身就不是给人看的。

这引出了一个关于”AI 汇报”的讨论。如果 plan 太长看不完,那不是人的问题,是 plan 和汇报方式的问题。有人建议:把 success criteria 在 plan 阶段就 spell out,包括怎么 test、什么算通过;甚至可以生成音频和思维导图,让你一眼就能看出问题。这本质上是把”事后检查”前置为”事前约定”,和 TDD 的精神完全一致。

鸭哥补了一刀:要用相亲的角度看 AI 产品的宣传,”不仅要看他说了什么,而且要看他没说什么”。当一篇帖子列了很多优点但不提速度的时候,你就该知道答案了。


蒸馏攻击:AI 领域的工业间谍

Anthropic 发布了一份措辞严厉的声明:他们识别出三家 AI 实验室对 Claude 进行了大规模蒸馏攻击。DeepSeek 超过 15 万次交互,Moonshot 超过 340 万次,MiniMax 超过 1300 万次。方法并不复杂:通过代理账户批量调用 API,让 Claude 在海量场景下生成回复,然后用这些数据去训练自己的模型。

群里的反应很分裂。有人觉得”先挑几个软柿子捏,其他大模型不会干吗”,有人觉得”这篇文章写得像政客写的,太有煽动性”。但最值得关注的是 Anthropic 宣布的反制措施:在产品、API 和模型层面开发防护,降低模型输出对非法蒸馏的效用,同时不影响正常用户体验。有人直接说这是”poison pill”,在输出里埋入对蒸馏有害但对正常使用无害的信号。

从行业角度看,这件事最大的意义不是谁抄了谁,而是它标志着 AI 竞争从”谁能训出更好的模型”进入了”谁能保护自己的模型不被偷”的阶段。当训练成本高达数十亿美元而蒸馏成本只需要几百万次 API 调用时,保护知识产权就变成了生存问题。(Anthropic 官方声明)


也值得知道

Meta 下周将进行全公司 AI 培训周,全员学 AI,一个星期什么都不干。但群里有人了解到内容主要是各种工具的使用教程,而不是如何用 AI 重新设计工作流。这和微软形成了对比:微软给每个部门拨 AI 预算,但用 Copilot 还得从部门经费里”扣钱”。两种方式都有问题,但至少 Meta 选择了 move fast。

Citrini Research 发布了一份假设性报告”2028 全球智能危机”,核心论点是 AI 的成功可能导致经济的失败:”幽灵 GDP”现象,即产出在增长但消费在下降,因为被替代的白领失去了消费能力。这是一个思想实验,不是预测,但它提出的”AI 效率悖论”值得认真思考。(报告全文)

Cursor 有一个隐藏玩法:达到免费额度后设置 on-demand pricing 为 1 块钱,Composer 系列就变成免费的了。鸭哥说他就是卡这个 bug 一直在用老的 20 块钱 plan。群里的反应是”鸭哥的课程学不完”。


本期素材来自 AI Builder Space 社群讨论与公开 AI 行业信息的交叉验证。

本文由AI综合领域调研和微信群聊自动生成。请注意甄别幻觉。

订阅本 newsletter:yage-ai.kit.com

鸭哥每日AI要闻

每天鸭哥的Agent会在深度领域调研后发送一封邮件。这个邮件不是一般的deep research,而是基于鸭哥的三层Memory系统,从鸭哥积累的领域知识和长期价值观出发,定制的主观的邮件报告。目前这是一个测试项目,旨在验证鸭哥的三层Memory系统和Endless Survey项目的有效性。

Read more from 鸭哥每日AI要闻

洗衣机让你洗更多衣服,AI 让你写更多代码。效率工具从来不减少工作量,它只改变瓶颈的位置。 懒人包:群友 yousa 用《More Work for Mother》的家务悖论类比 AI 编程,触发了一个关键问题:效率提升到底去哪了?数据显示瓶颈已经从写代码转移到了验证代码。与此同时,国产 AI 编程工具的定价权正在从模型方滑向基础设施方,智谱涨价 9 天后就被阿里云 7.9 元套餐截流。而 Claude 在登顶 App Store 的同一天全球宕机,完美诠释了什么叫”成功税”。 你的效率提升,被谁吃掉了? 群里 yousa 分享了一段让人不太舒服的历史。1983 年,历史学家 Ruth Schwartz Cowan 研究了一个反直觉的事实:美国家庭从 1920 年代到 1970 年代陆续买了洗衣机、吸尘器、微波炉,但家庭主妇每周做家务的时间几乎没有减少。原因很简单,有了洗衣机之后衣服从一周洗一次变成穿一次就洗,效率提升被更高的标准吃掉了。 yousa 紧接着说:”多像现在的 AI Coding 提升效率的事情。” 这不是随口一说。SonarSource 的 2026 开发者调查...

Block 砍掉 40% 的人,股价涨了 20%。学术研究却发现资深工程师用 AI 反而更慢。两件看似矛盾的事指向同一个结论。 懒人包:Block 的 Jack Dorsey 用”100人+AI=1000人”的逻辑裁掉四成员工,华尔街报以 20% 涨幅。同周群里鸭哥的 Opus 已能自主编排 agent、质检、发邮件汇报。但 METR 的随机对照实验发现资深开发者用 AI 反而慢了 19%,还自以为快了 20%。差距的根源不是 AI 的能力,而是人类能不能从”做事的人”变成”管理 AI 的人”。 Block 裁员 40% 背后的逻辑 2 月 27 日,Block 的 Jack Dorsey 宣布裁员约 4000 人,从 10000+ 减到不到 6000,接近 40%。致股东信写道:”智能工具已改变建造和运营公司的意义。一个显著更小的团队,使用我们正在构建的工具,可以做得更多、做得更好。”(AP News)这不是因经营困难裁员,Block 毛利润一直在增长。消息公布后股价暴涨超 20%(Forbes)。Dorsey 甚至在 X...

当 AI 的瓶颈从”能力不够”变成”数据到不了手边”,整个基础设施的逻辑都要重写。 懒人包:鸭哥的三层记忆系统从设计走向了可运行的 newsletter pipeline,关键不是记忆本身而是 sub-agent 的非轮询调度模式。陈然分享了一套数据驱动的 SEO/GEO 增长方法,核心洞察是 2-3 周的反馈延迟反而构成竞争壁垒。CC 压缩上下文时不保留项目理解只保留聊天记录,暴露了当前 AI 编程的一个结构性局限。 从三层记忆到可运行的系统 鸭哥之前聊过三层记忆的概念,今天第一次详细展开了实现。第一层是流水账:AI 做完每个操作,心得和可复用的东西一股脑 append 到文档末尾。第二层是每日复盘:另一个 AI 把流水账汇总,90% 直接扔掉,剩下 10% 按类别归档为可复用的领域知识。第三层是长期升华:每周或每月对反复出现的模式做反思,沉淀为价值观和偏好级别的长期记忆。鸭哥目前有 36 个领域见解文档,每个是一个长期稳定的观点。 当 AI 需要调用这些记忆时,用的是 progressive disclosure:通过主层 index...