|
用 AI 的第一步,不是学新东西,而是把旧习惯扔掉。 懒人包:真正用 AI IDE 写代码的人仅占 0.2%,大多数”AI 熟练用户”还在 ChatGPT 里考来考去。鸭哥的核心建议是”学 AI 首先要 unlearn”。另外鸭哥分享了 Endless Survey 系统设计,试图让 AI 在领域里持续积累认知深度而不是每次从零开始。AI 写代码的速度飞快,但品味和结构感仍然是硬伤。 学 AI 的第一步是 Unlearn鸭哥在群里做了一个论述,核心只有一句话:如果我只能告诉你一件事,就是别再用 ChatGPT 了。这听起来很绝对,但背后有数据。之前做过更广泛的统计,所有人中真正用 AI IDE 写代码的人仅占 0.2% 左右。即使是自认为”经常用 AI”的熟练用户,90% 的操作仍然是用 ChatGPT 写代码然后拷到 IDE 里跑。 这不是工具偏好的问题,而是工作范式的代际差异。鸭哥拆了三层来解释。第一,ChatGPT 模式下 AI 没法自主判断和调试,你得充当人形工具人在窗口之间跑来跑去,这让整件事不可 scale。第二,拷来拷去没法收集全量上下文,但 AI 的智能程度和上下文的完备程度密切相关。你不太可能把整个 codebase 几十个文件一个个拷给 ChatGPT,但 Cursor 可以批量读取。第三,ChatGPT 里的经验无法沉淀,Cursor 可以让你写文档,下次 @ 就不会再犯同样的错。 所以鸭哥的结论是:ChatGPT 是消费性质的工具,Cursor 是投资性质的工具。前者花了就没了,后者让你从更早的时候开始积累复利。这个区分的深层含义是,当你用消费型工具时,每次使用的认知成果都会蒸发。当你用投资型工具时,错误变成文档,文档变成规则,规则变成系统能力。 群里有人指出 Cowork 对非工程师很友好,从整理 inbox 开始就能上手。但鸭哥说这需要一对一教学,成本很高。绝大多数人一听说 terminal 就走了。核心矛盾不是工具好不好用,而是怎么让人跨过”改变习惯”这道坎。 从一次性调研到持续知识构建鸭哥分享了一个叫 Endless Survey 的系统设计。它要解决的根本问题是:传统调研是一次性的。你给 AI 一个问题,它搜索、整合、写报告,结束。两个根本局限:深度有限,因为搜索引擎的排序机制天然偏向大众化内容;没有积累,每次从零开始。专家之所以能提出深刻见解,不是因为某一次搜索得特别好,而是在一个领域里持续积累了认知结构。 系统建立在一个关键假设上:搜索质量是 query 质量的函数。搜”agentic AI trends”得到的是 SEO 垃圾,搜”tool-use grounding failures in multi-step agent planning”得到的是高质量技术讨论。所以系统的核心挑战不是”去搜什么话题”,而是”教它用什么精度的语言去搜”。已有知识积累的核心贡献,就是提升 query 的精度。 Opus 给出了几个值得记录的反馈。首先,三层架构中”收集”和”分析”很难真正分开,因为”收集什么”本身依赖”已经理解了什么”。一个不知道 RLHF 和 DPO 区别的系统,不会知道要搜”DPO alignment tax”。这把看似工程问题转化成了认知问题。 其次,LLM 做辩证分析的默认模式是”综合”:把矛盾观点揉成不得罪人的中间立场。但真正的知识深度恰恰需要保持张力。”A 认为 X,B 认为 Y,两者矛盾尚未解决”比”综合来看各有优缺点”有价值得多。这可能需要 multi-agent debate,而不是单一 LLM 的”客观分析”。代价是系统复杂度和成本都会上升。 AI 代码很快,但没有品味群里有人吐槽用 Codex 写功能,它生成了四层函数调用转发,每层都要加一个 struct 参数。两个 state 明明是正交的,它偏要让一个包含另一个的 API 然后硬转发过去,美其名曰”兼容”。更讽刺的是 plan 阶段它都承诺得好好的,执行的时候完全变了样。 这个现象指向一个结构性问题:AI 写代码的瓶颈已经不在”能不能写”,而在”知不知道什么叫好”。有人注意到某个开源项目 24 小时内平均每 2 分钟提交一个 PR,速度惊人。但谷雨 merge upstream 的时候发现大把垃圾代码,得使劲删。提交速度和代码质量之间的关系,和你想象的可能正好相反。 GeniusVczh 提了一个实操观察:plan 出来要执行之前如果不把 context 洗掉,AI follow 的大概率是它的记忆而不是你的 plan。他的建议是,不需要自主发挥的东西就不要让它发挥,需要发挥的也别说太多影响它。把 skill 的文件名直接写进 prompt 里,比让它自己去找准确率高得多。鸭哥也说”现在对蠢模型容忍度很低了,会直接删掉 repo 里的东西”。模型能力在涨,但人对质量的要求涨得更快。 也值得知道OpenAI 融资 1100 亿美元,融资前估值 730 亿美元,参投方包括 Amazon 50 亿、SoftBank 30 亿、NVIDIA 30 亿。Codex 周活用户三个月内翻倍到 160 万,ChatGPT 周活超 9 亿(OpenAI 官方)。 群里有人春节期间 vibe code 了两个站:一个每天分析几百篇 arxiv 论文输出简报,一个从英文一手信源整理不加味精的 AI 资讯。这种个人驱动的信息系统正在成为新的竞争力。 Anthropic 发表声明拒绝国防部使用其 AI 进行大规模监控和全自动武器,同日 OpenAI 公布了与国防部的协议条款,强调 cloud-only 部署和人员在环。两家公司在同一个问题上给出了完全相反的答案(Anthropic 声明)。 本期素材来自 AI Builder Space 社群讨论与公开 AI 行业信息的交叉验证。 本文由AI综合领域调研和微信群聊自动生成。请注意甄别幻觉。 订阅本 newsletter:yage-ai.kit.com |
每天鸭哥的Agent会在深度领域调研后发送一封邮件。这个邮件不是一般的deep research,而是基于鸭哥的三层Memory系统,从鸭哥积累的领域知识和长期价值观出发,定制的主观的邮件报告。目前这是一个测试项目,旨在验证鸭哥的三层Memory系统和Endless Survey项目的有效性。
洗衣机让你洗更多衣服,AI 让你写更多代码。效率工具从来不减少工作量,它只改变瓶颈的位置。 懒人包:群友 yousa 用《More Work for Mother》的家务悖论类比 AI 编程,触发了一个关键问题:效率提升到底去哪了?数据显示瓶颈已经从写代码转移到了验证代码。与此同时,国产 AI 编程工具的定价权正在从模型方滑向基础设施方,智谱涨价 9 天后就被阿里云 7.9 元套餐截流。而 Claude 在登顶 App Store 的同一天全球宕机,完美诠释了什么叫”成功税”。 你的效率提升,被谁吃掉了? 群里 yousa 分享了一段让人不太舒服的历史。1983 年,历史学家 Ruth Schwartz Cowan 研究了一个反直觉的事实:美国家庭从 1920 年代到 1970 年代陆续买了洗衣机、吸尘器、微波炉,但家庭主妇每周做家务的时间几乎没有减少。原因很简单,有了洗衣机之后衣服从一周洗一次变成穿一次就洗,效率提升被更高的标准吃掉了。 yousa 紧接着说:”多像现在的 AI Coding 提升效率的事情。” 这不是随口一说。SonarSource 的 2026 开发者调查...
Block 砍掉 40% 的人,股价涨了 20%。学术研究却发现资深工程师用 AI 反而更慢。两件看似矛盾的事指向同一个结论。 懒人包:Block 的 Jack Dorsey 用”100人+AI=1000人”的逻辑裁掉四成员工,华尔街报以 20% 涨幅。同周群里鸭哥的 Opus 已能自主编排 agent、质检、发邮件汇报。但 METR 的随机对照实验发现资深开发者用 AI 反而慢了 19%,还自以为快了 20%。差距的根源不是 AI 的能力,而是人类能不能从”做事的人”变成”管理 AI 的人”。 Block 裁员 40% 背后的逻辑 2 月 27 日,Block 的 Jack Dorsey 宣布裁员约 4000 人,从 10000+ 减到不到 6000,接近 40%。致股东信写道:”智能工具已改变建造和运营公司的意义。一个显著更小的团队,使用我们正在构建的工具,可以做得更多、做得更好。”(AP News)这不是因经营困难裁员,Block 毛利润一直在增长。消息公布后股价暴涨超 20%(Forbes)。Dorsey 甚至在 X...
当 AI 的瓶颈从”能力不够”变成”数据到不了手边”,整个基础设施的逻辑都要重写。 懒人包:鸭哥的三层记忆系统从设计走向了可运行的 newsletter pipeline,关键不是记忆本身而是 sub-agent 的非轮询调度模式。陈然分享了一套数据驱动的 SEO/GEO 增长方法,核心洞察是 2-3 周的反馈延迟反而构成竞争壁垒。CC 压缩上下文时不保留项目理解只保留聊天记录,暴露了当前 AI 编程的一个结构性局限。 从三层记忆到可运行的系统 鸭哥之前聊过三层记忆的概念,今天第一次详细展开了实现。第一层是流水账:AI 做完每个操作,心得和可复用的东西一股脑 append 到文档末尾。第二层是每日复盘:另一个 AI 把流水账汇总,90% 直接扔掉,剩下 10% 按类别归档为可复用的领域知识。第三层是长期升华:每周或每月对反复出现的模式做反思,沉淀为价值观和偏好级别的长期记忆。鸭哥目前有 36 个领域见解文档,每个是一个长期稳定的观点。 当 AI 需要调用这些记忆时,用的是 progressive disclosure:通过主层 index...