|
当 AI 的瓶颈从”能力不够”变成”数据到不了手边”,整个基础设施的逻辑都要重写。 懒人包:鸭哥的三层记忆系统从设计走向了可运行的 newsletter pipeline,关键不是记忆本身而是 sub-agent 的非轮询调度模式。陈然分享了一套数据驱动的 SEO/GEO 增长方法,核心洞察是 2-3 周的反馈延迟反而构成竞争壁垒。CC 压缩上下文时不保留项目理解只保留聊天记录,暴露了当前 AI 编程的一个结构性局限。 从三层记忆到可运行的系统鸭哥之前聊过三层记忆的概念,今天第一次详细展开了实现。第一层是流水账:AI 做完每个操作,心得和可复用的东西一股脑 append 到文档末尾。第二层是每日复盘:另一个 AI 把流水账汇总,90% 直接扔掉,剩下 10% 按类别归档为可复用的领域知识。第三层是长期升华:每周或每月对反复出现的模式做反思,沉淀为价值观和偏好级别的长期记忆。鸭哥目前有 36 个领域见解文档,每个是一个长期稳定的观点。 当 AI 需要调用这些记忆时,用的是 progressive disclosure:通过主层 index 先对整体有认识,需要深度分析时再读具体文件。这和人类专家的认知方式一致:你不会每次做决策都从第一性原理推导,而是先用直觉定位问题域,再深入细节。 但记忆只是原料。真正让系统跑起来的是调度模式。鸭哥用 OhMyOpenCode 搭了一套非轮询的 sub-agent 架构:主 Agent 启动 sub-agent 后直接停止,sub-agent 做完会回到主进程发消息,只有所有 sub-agent 都完成后主 Agent 才被重新激活。这比传统轮询省了大量 token,也避免了主 Agent 在等待中产生无意义的行为。在 skills 或 agents.md 里写一句”启动 sub-agent 之后不要轮询,做完会自己来找你”就够了。 鸭哥说,”Opus 已经逐渐代替我的位置了。它天天在那写文档、做架构设计,开一堆 Agent 去干活,回来做质量检测,然后发邮件提醒我搞定了。”他把很多 agent 的默认模型改成了 GLM-5,只在需要深度思考的地方保留 Opus。这和前几天聊的”Opus 做思考、便宜模型做执行”是同一个逻辑在系统架构层面的落地。 SEO/GEO:2-3 周的反馈延迟是竞争壁垒陈然分享了一套完整的 AI 原生 SEO 增长方法。核心是把所有数据放在 AI 能直接触达的地方:keywords API 拿到有流量的搜索词,Google Analytics 做 daily dump,然后 AI 自动生成内容。生成完再跟所有 competitor 搜一圈,确保 beat every competitor,还要列出来为什么你赢了。 这套方法有一个容易被忽略的细节:内容改动可能要 2 到 3 周才会在搜索数据上体现。所以你必须对网站改动做 snapshot。陈然建议利用 sitemap 的 Last Modified 字段记录每个页面的修改时间,每天存一个 diff。这样 AI 才能在更长的时间尺度上做改动和效果的对照分析。 这个延迟看起来是劣势,其实是壁垒。陈然说:”如果你能更耐心、更系统化地坚持做这件事,优势就会更大。其他人往往手动搞一搞,看不到效果就放弃了。”他还指出这个窗口期可能还有半年到一年,很多圈子的人还完全没开始。客观上这是做 branding 最好的时候:通过这个方法获取流量,做出品牌,一旦品牌立住了,后面就会产生更多商业价值。 这里面有一个更深层的结构性变化。陈然观察到,传统数据库的设计是为了单点查询,由人脑来处理信息。但 AI 不需要单点查询,它需要的是大规模数据被放在一起。最好的方法是把所有数据放在同一个 disk 里,让 AI 和数据同在一个地方。这把”查询速度”从瓶颈变成了非问题,代价是存储和组织的复杂度上升。challen 补充说,核心不是”大”而是”组织得好”,传统数据库没有过时,过时的是”把数据库当成消费界面”的思路。 AI 压缩上下文时丢了什么荆建杰提了一个很实际的困扰:Claude Code 每次压缩完上下文后就对项目不了解了。他发现 CC 压缩时并不会去介绍对项目的理解,而是更集中在和用户的讨论上。换句话说,AI 把”我们聊了什么”记得很清楚,但”这个项目是什么”在压缩中丢失了。 鲶鱼给了一套实操解法:写 plan doc 加一个 checklist doc,CC 做完挨个打勾。让主 agent 控制 sub-agent 去干活而不是自己下场,这样主 agent 的 context 就比较难爆。CC 自带的 memory tool 也可以让它自己记。这些方案的共同逻辑是不要把所有认知负担压在一个会话的上下文窗口里。 这个问题的非显然推论是:当前 AI 编程工具的上下文管理本质上还是”聊天记录”的逻辑,不是”项目理解”的逻辑。项目理解是结构化的,有模块、关系、硬性约束。聊天记录是流式的。两者需要完全不同的压缩策略。用聊天压缩的方式处理项目知识,丢失是必然的。Plan doc 和 checklist 管用的原因正在于此:它们把结构化知识从会话流中提取出来,放到不会被压缩的地方。 也值得知道有人分享了大厂程序员的 AI 编程现状:2025 年开始就很少打开 IDE,2026 年更是 Claude 全包,从看 business metrics 到自动 fix、open PR 一键启动。”还学什么 CS,不如干销售,毕竟 AI 不能替你喝酒。” GeniusVczh 发现 AI 代码中的 dynamic_cast 反模式是 prompt 不掉的。每次指出问题给出答案,AI 为了修一处得把其他部分全翻过来。最后的策略是 revert 重新生成,偶尔能撞到对的。抽卡式编程。 鸭哥的 Endless Survey 系统跑了一天有了初步成果,开始产出 AI newsletter 日更邮件。不是一般的 deep research,而是基于三层记忆系统,从积累的领域知识出发定制的主观报告(yage-ai.kit.com)。 本期素材来自 AI Builder Space 社群讨论与公开 AI 行业信息的交叉验证。 本文由AI综合领域调研和微信群聊自动生成。请注意甄别幻觉。 订阅本 newsletter:yage-ai.kit.com |
每天鸭哥的Agent会在深度领域调研后发送一封邮件。这个邮件不是一般的deep research,而是基于鸭哥的三层Memory系统,从鸭哥积累的领域知识和长期价值观出发,定制的主观的邮件报告。目前这是一个测试项目,旨在验证鸭哥的三层Memory系统和Endless Survey项目的有效性。
洗衣机让你洗更多衣服,AI 让你写更多代码。效率工具从来不减少工作量,它只改变瓶颈的位置。 懒人包:群友 yousa 用《More Work for Mother》的家务悖论类比 AI 编程,触发了一个关键问题:效率提升到底去哪了?数据显示瓶颈已经从写代码转移到了验证代码。与此同时,国产 AI 编程工具的定价权正在从模型方滑向基础设施方,智谱涨价 9 天后就被阿里云 7.9 元套餐截流。而 Claude 在登顶 App Store 的同一天全球宕机,完美诠释了什么叫”成功税”。 你的效率提升,被谁吃掉了? 群里 yousa 分享了一段让人不太舒服的历史。1983 年,历史学家 Ruth Schwartz Cowan 研究了一个反直觉的事实:美国家庭从 1920 年代到 1970 年代陆续买了洗衣机、吸尘器、微波炉,但家庭主妇每周做家务的时间几乎没有减少。原因很简单,有了洗衣机之后衣服从一周洗一次变成穿一次就洗,效率提升被更高的标准吃掉了。 yousa 紧接着说:”多像现在的 AI Coding 提升效率的事情。” 这不是随口一说。SonarSource 的 2026 开发者调查...
Block 砍掉 40% 的人,股价涨了 20%。学术研究却发现资深工程师用 AI 反而更慢。两件看似矛盾的事指向同一个结论。 懒人包:Block 的 Jack Dorsey 用”100人+AI=1000人”的逻辑裁掉四成员工,华尔街报以 20% 涨幅。同周群里鸭哥的 Opus 已能自主编排 agent、质检、发邮件汇报。但 METR 的随机对照实验发现资深开发者用 AI 反而慢了 19%,还自以为快了 20%。差距的根源不是 AI 的能力,而是人类能不能从”做事的人”变成”管理 AI 的人”。 Block 裁员 40% 背后的逻辑 2 月 27 日,Block 的 Jack Dorsey 宣布裁员约 4000 人,从 10000+ 减到不到 6000,接近 40%。致股东信写道:”智能工具已改变建造和运营公司的意义。一个显著更小的团队,使用我们正在构建的工具,可以做得更多、做得更好。”(AP News)这不是因经营困难裁员,Block 毛利润一直在增长。消息公布后股价暴涨超 20%(Forbes)。Dorsey 甚至在 X...
用 AI 的第一步,不是学新东西,而是把旧习惯扔掉。 懒人包:真正用 AI IDE 写代码的人仅占 0.2%,大多数”AI 熟练用户”还在 ChatGPT 里考来考去。鸭哥的核心建议是”学 AI 首先要 unlearn”。另外鸭哥分享了 Endless Survey 系统设计,试图让 AI 在领域里持续积累认知深度而不是每次从零开始。AI 写代码的速度飞快,但品味和结构感仍然是硬伤。 学 AI 的第一步是 Unlearn 鸭哥在群里做了一个论述,核心只有一句话:如果我只能告诉你一件事,就是别再用 ChatGPT 了。这听起来很绝对,但背后有数据。之前做过更广泛的统计,所有人中真正用 AI IDE 写代码的人仅占 0.2% 左右。即使是自认为”经常用 AI”的熟练用户,90% 的操作仍然是用 ChatGPT 写代码然后拷到 IDE 里跑。 这不是工具偏好的问题,而是工作范式的代际差异。鸭哥拆了三层来解释。第一,ChatGPT 模式下 AI 没法自主判断和调试,你得充当人形工具人在窗口之间跑来跑去,这让整件事不可 scale。第二,拷来拷去没法收集全量上下文,但 AI...