[鸭哥 AI 手记] 2026-02-27


用 AI 的第一步,不是学新东西,而是把旧习惯扔掉。

懒人包:真正用 AI IDE 写代码的人仅占 0.2%,大多数”AI 熟练用户”还在 ChatGPT 里考来考去。鸭哥的核心建议是”学 AI 首先要 unlearn”。另外鸭哥分享了 Endless Survey 系统设计,试图让 AI 在领域里持续积累认知深度而不是每次从零开始。AI 写代码的速度飞快,但品味和结构感仍然是硬伤。


学 AI 的第一步是 Unlearn

鸭哥在群里做了一个论述,核心只有一句话:如果我只能告诉你一件事,就是别再用 ChatGPT 了。这听起来很绝对,但背后有数据。之前做过更广泛的统计,所有人中真正用 AI IDE 写代码的人仅占 0.2% 左右。即使是自认为”经常用 AI”的熟练用户,90% 的操作仍然是用 ChatGPT 写代码然后拷到 IDE 里跑。

这不是工具偏好的问题,而是工作范式的代际差异。鸭哥拆了三层来解释。第一,ChatGPT 模式下 AI 没法自主判断和调试,你得充当人形工具人在窗口之间跑来跑去,这让整件事不可 scale。第二,拷来拷去没法收集全量上下文,但 AI 的智能程度和上下文的完备程度密切相关。你不太可能把整个 codebase 几十个文件一个个拷给 ChatGPT,但 Cursor 可以批量读取。第三,ChatGPT 里的经验无法沉淀,Cursor 可以让你写文档,下次 @ 就不会再犯同样的错。

所以鸭哥的结论是:ChatGPT 是消费性质的工具,Cursor 是投资性质的工具。前者花了就没了,后者让你从更早的时候开始积累复利。这个区分的深层含义是,当你用消费型工具时,每次使用的认知成果都会蒸发。当你用投资型工具时,错误变成文档,文档变成规则,规则变成系统能力。

群里有人指出 Cowork 对非工程师很友好,从整理 inbox 开始就能上手。但鸭哥说这需要一对一教学,成本很高。绝大多数人一听说 terminal 就走了。核心矛盾不是工具好不好用,而是怎么让人跨过”改变习惯”这道坎。


从一次性调研到持续知识构建

鸭哥分享了一个叫 Endless Survey 的系统设计。它要解决的根本问题是:传统调研是一次性的。你给 AI 一个问题,它搜索、整合、写报告,结束。两个根本局限:深度有限,因为搜索引擎的排序机制天然偏向大众化内容;没有积累,每次从零开始。专家之所以能提出深刻见解,不是因为某一次搜索得特别好,而是在一个领域里持续积累了认知结构。

系统建立在一个关键假设上:搜索质量是 query 质量的函数。搜”agentic AI trends”得到的是 SEO 垃圾,搜”tool-use grounding failures in multi-step agent planning”得到的是高质量技术讨论。所以系统的核心挑战不是”去搜什么话题”,而是”教它用什么精度的语言去搜”。已有知识积累的核心贡献,就是提升 query 的精度。

Opus 给出了几个值得记录的反馈。首先,三层架构中”收集”和”分析”很难真正分开,因为”收集什么”本身依赖”已经理解了什么”。一个不知道 RLHF 和 DPO 区别的系统,不会知道要搜”DPO alignment tax”。这把看似工程问题转化成了认知问题。

其次,LLM 做辩证分析的默认模式是”综合”:把矛盾观点揉成不得罪人的中间立场。但真正的知识深度恰恰需要保持张力。”A 认为 X,B 认为 Y,两者矛盾尚未解决”比”综合来看各有优缺点”有价值得多。这可能需要 multi-agent debate,而不是单一 LLM 的”客观分析”。代价是系统复杂度和成本都会上升。


AI 代码很快,但没有品味

群里有人吐槽用 Codex 写功能,它生成了四层函数调用转发,每层都要加一个 struct 参数。两个 state 明明是正交的,它偏要让一个包含另一个的 API 然后硬转发过去,美其名曰”兼容”。更讽刺的是 plan 阶段它都承诺得好好的,执行的时候完全变了样。

这个现象指向一个结构性问题:AI 写代码的瓶颈已经不在”能不能写”,而在”知不知道什么叫好”。有人注意到某个开源项目 24 小时内平均每 2 分钟提交一个 PR,速度惊人。但谷雨 merge upstream 的时候发现大把垃圾代码,得使劲删。提交速度和代码质量之间的关系,和你想象的可能正好相反。

GeniusVczh 提了一个实操观察:plan 出来要执行之前如果不把 context 洗掉,AI follow 的大概率是它的记忆而不是你的 plan。他的建议是,不需要自主发挥的东西就不要让它发挥,需要发挥的也别说太多影响它。把 skill 的文件名直接写进 prompt 里,比让它自己去找准确率高得多。鸭哥也说”现在对蠢模型容忍度很低了,会直接删掉 repo 里的东西”。模型能力在涨,但人对质量的要求涨得更快。


也值得知道

OpenAI 融资 1100 亿美元,融资前估值 730 亿美元,参投方包括 Amazon 50 亿、SoftBank 30 亿、NVIDIA 30 亿。Codex 周活用户三个月内翻倍到 160 万,ChatGPT 周活超 9 亿(OpenAI 官方)。

群里有人春节期间 vibe code 了两个站:一个每天分析几百篇 arxiv 论文输出简报,一个从英文一手信源整理不加味精的 AI 资讯。这种个人驱动的信息系统正在成为新的竞争力。

Anthropic 发表声明拒绝国防部使用其 AI 进行大规模监控和全自动武器,同日 OpenAI 公布了与国防部的协议条款,强调 cloud-only 部署和人员在环。两家公司在同一个问题上给出了完全相反的答案(Anthropic 声明)。


本期素材来自 AI Builder Space 社群讨论与公开 AI 行业信息的交叉验证。

本文由AI综合领域调研和微信群聊自动生成。请注意甄别幻觉。

订阅本 newsletter:yage-ai.kit.com

鸭哥每日AI要闻

每天鸭哥的Agent会在深度领域调研后发送一封邮件。这个邮件不是一般的deep research,而是基于鸭哥的三层Memory系统,从鸭哥积累的领域知识和长期价值观出发,定制的主观的邮件报告。目前这是一个测试项目,旨在验证鸭哥的三层Memory系统和Endless Survey项目的有效性。

Read more from 鸭哥每日AI要闻

洗衣机让你洗更多衣服,AI 让你写更多代码。效率工具从来不减少工作量,它只改变瓶颈的位置。 懒人包:群友 yousa 用《More Work for Mother》的家务悖论类比 AI 编程,触发了一个关键问题:效率提升到底去哪了?数据显示瓶颈已经从写代码转移到了验证代码。与此同时,国产 AI 编程工具的定价权正在从模型方滑向基础设施方,智谱涨价 9 天后就被阿里云 7.9 元套餐截流。而 Claude 在登顶 App Store 的同一天全球宕机,完美诠释了什么叫”成功税”。 你的效率提升,被谁吃掉了? 群里 yousa 分享了一段让人不太舒服的历史。1983 年,历史学家 Ruth Schwartz Cowan 研究了一个反直觉的事实:美国家庭从 1920 年代到 1970 年代陆续买了洗衣机、吸尘器、微波炉,但家庭主妇每周做家务的时间几乎没有减少。原因很简单,有了洗衣机之后衣服从一周洗一次变成穿一次就洗,效率提升被更高的标准吃掉了。 yousa 紧接着说:”多像现在的 AI Coding 提升效率的事情。” 这不是随口一说。SonarSource 的 2026 开发者调查...

Block 砍掉 40% 的人,股价涨了 20%。学术研究却发现资深工程师用 AI 反而更慢。两件看似矛盾的事指向同一个结论。 懒人包:Block 的 Jack Dorsey 用”100人+AI=1000人”的逻辑裁掉四成员工,华尔街报以 20% 涨幅。同周群里鸭哥的 Opus 已能自主编排 agent、质检、发邮件汇报。但 METR 的随机对照实验发现资深开发者用 AI 反而慢了 19%,还自以为快了 20%。差距的根源不是 AI 的能力,而是人类能不能从”做事的人”变成”管理 AI 的人”。 Block 裁员 40% 背后的逻辑 2 月 27 日,Block 的 Jack Dorsey 宣布裁员约 4000 人,从 10000+ 减到不到 6000,接近 40%。致股东信写道:”智能工具已改变建造和运营公司的意义。一个显著更小的团队,使用我们正在构建的工具,可以做得更多、做得更好。”(AP News)这不是因经营困难裁员,Block 毛利润一直在增长。消息公布后股价暴涨超 20%(Forbes)。Dorsey 甚至在 X...

当 AI 的瓶颈从”能力不够”变成”数据到不了手边”,整个基础设施的逻辑都要重写。 懒人包:鸭哥的三层记忆系统从设计走向了可运行的 newsletter pipeline,关键不是记忆本身而是 sub-agent 的非轮询调度模式。陈然分享了一套数据驱动的 SEO/GEO 增长方法,核心洞察是 2-3 周的反馈延迟反而构成竞争壁垒。CC 压缩上下文时不保留项目理解只保留聊天记录,暴露了当前 AI 编程的一个结构性局限。 从三层记忆到可运行的系统 鸭哥之前聊过三层记忆的概念,今天第一次详细展开了实现。第一层是流水账:AI 做完每个操作,心得和可复用的东西一股脑 append 到文档末尾。第二层是每日复盘:另一个 AI 把流水账汇总,90% 直接扔掉,剩下 10% 按类别归档为可复用的领域知识。第三层是长期升华:每周或每月对反复出现的模式做反思,沉淀为价值观和偏好级别的长期记忆。鸭哥目前有 36 个领域见解文档,每个是一个长期稳定的观点。 当 AI 需要调用这些记忆时,用的是 progressive disclosure:通过主层 index...