|
把模型刻进芯片、把 AI 放进 crontab、把知识刻进记忆系统,这三件事听起来毫无关联,但它们解决的是同一个问题:如何让智能从”调用”变成”存在”。 懒人包:ChatJimmy.ai 把模型刻进芯片引发 dev time vs run time 的讨论;教非技术人群用 AI 的最大门槛是认知而非工具;鸭哥把 OpenCode 放进 crontab 标志着 AI 从”调用”变成”基础设施”。 把模型刻进芯片的诱惑与陷阱群里有人分享了 ChatJimmy.ai 的 demo:把 LLM 的权重直接刻在 ASIC 芯片上,推理速度快到像假的。有人说这像把模型写死在光盘里,有人说是”物理化的模型”。 鸭哥点出了这个思路的核心矛盾:dev time 和 run time 的 trade-off。如果投入大量 dev time(设计芯片、流片),run time 可以缩到极致。CUDA、FPGA、ASIC,dev time 递增,run time 递减,这是芯片设计的经典光谱。 问题在于,这个 trade-off 对”稳定市场”和”快速迭代市场”的价值完全不同。比特币挖矿算法定下来就不变,做矿机 ASIC 是好生意。但 LLM 领域呢?一年半前的 Llama 3.1 8B 现在已经被视为不可用,从设计到流片至少要一年,产出来就是过时的。 群里的讨论随后分化成了两个方向。一个方向是”等 AGI 出来了不用更新了再做”,这是个半开玩笑的说法,但指向了一个真问题:如果模型演进速度稳定下来,固化到芯片就变得合理。另一个更务实的方向是 IoT 和边缘设备。8B 模型做翻译、控制家电、简单对话已经绰绰有余,而这类场景对延迟极度敏感、对智能水平要求不高。一个嵌入墙壁里的芯片,能让咖啡机听懂你说”早上七点煮一壶”,不需要它理解康德。 这里有一个更深的洞察:当我们把”最新最强”当作唯一的评价标准时,会忽略掉一个巨大的市场——对”足够好”有需求、对”足够快”和”足够便宜”有强需求的场景。手机芯片的 NPU 走的就是这条路,只是没有激进到直接把权重刻死。 AI 的采用鸿沟不在技术,在认知群里有人分享了一个观察:教一个上市公司 CEO 用 Claude Code,发现最大的门槛不是安装、不是网络、不是付费,而是”他对使用 AI 的理解就是聊天窗口、问问题、当 Google 用”。 这不是个例。有人在教国内的 fund manager 使用 AI 工具时遇到了同样的问题:怎么访问 GPT、怎么付费订阅、什么是 brew——这些听起来简单的问题,对于非技术人群来说是真实的壁垒。但更深层的壁垒是认知的:他们不知道 AI 能做什么,所以不知道该要求 AI 做什么。这是 unknown unknown。 有人直言:终端那个黑黑的窗口就能吓死 95% 的人。但实际上,基本上认知关过了以后,很多人很快就会觉得终端是最好用的工具。问题不在于界面的复杂度,而在于用户是否理解了”AI 是一个可以执行任务的实体,而不只是一个聊天对象”这个概念跃迁。 这和 Cursor 的定位形成了有趣的对比。有人说自己去做 AI 培训都是培训 Cursor,因为它的图形界面容易上手。但上手容易和真正有效是两回事。Cursor 降低的是操作门槛,但没有降低认知门槛。你仍然需要理解什么是好的 prompt、什么是合理的任务分解、什么时候该信任 AI 的输出、什么时候该质疑。 这个认知鸿沟正在制造一种新的分层:同样花 200 美元订阅 AI 工具,有人能 10 天写出比四人团队两年更多的产出,有人只是把它当做高级搜索引擎。差距不是 10%,可能是 100 倍。而弥合这个差距的关键不是更好的界面,是一次认知的范式转换——从”问 AI 答案”到”给 AI 任务”。 把 AI 变成基础设施鸭哥提到一个看似不起眼的实践:把 OpenCode 放到 crontab 里,每周自动跑一次调研、两次检查本机健康状况,每天更新知识和记忆。 这个动作的意义远超它的技术难度。它标志着 AI 使用方式的一个质变:从”人主动调用 AI”变成”AI 作为后台服务持续运行”。就像我们不会每次想用电的时候去发电厂申请一样,AI 也应该像水电一样,接上就有。 群里有人把这个思路推得更远:给女儿做了一个 AI 家庭教师,用 mastery 计算逻辑跟踪学习进度,自动生成复习测试,根据答题表现动态调整教学方向。理解度占 30%、练习正确率占 50%、复习表现占 20%,这套公式本身不复杂,但它实现了一个传统教育做不到的事:为每个学生维护一份持续更新的认知模型。 另一位群友描述了一个类似的实践:让 AI 根据两个月的 journal 和 calendar 分析自己没发现的行为模式。结果”骂得太一针见血了”。AI 给出了一句话总结:”The imperfect tool that gets used beats the perfect tool that’s always under construction.” 这句话本身就是这种”AI 作为基础设施”思路的最好注脚。 这三个场景——crontab 调研、AI 家教、个人行为分析——共同指向一个趋势:AI 的最大价值不在于你主动问它问题的那一刻,而在于它持续运行、持续观察、持续积累后,在你需要的时候已经准备好了答案。这就是为什么鸭哥一直强调 monorepo 和 memory system 的重要性:没有持续记录的基础设施,AI 每次都从零开始,无论模型多强,都发挥不出复利。 也值得知道GLM-5 的用户群已经变成了 Kimi 和 Minimax 的广告群。用户骑脸输出,直接把竞品后台截图贴进去。一个模型从”火爆抢购”到”用户叛逃”只用了几周,这可能是 AI 时代产品忠诚度的一个预演:当切换成本为零时,任何服务中断都是致命的。 Codex 5.3 的早期反馈不太乐观。有人觉得它和 Opus 4.6 差很多,”不怎么爱深入问题,一会儿就敷衍了事”。解决方案是开 thinking 到 extra high,但这就像告诉一个跑者”你得穿上增压服才能跑”。模型的默认行为应该就是好的,不应该需要用户手动调参才能激活认真模式。 课代表分享了和清华刘嘉教授三小时对话的总结,内容涉及 AI 意识、意义和动力。在理性主义主导的 AI 讨论里看到存在主义的论点,让人惊喜。当 AI 变得足够强大时,我们可能需要回到哲学去寻找护栏。 本期素材来自 AI Builder Space 社群讨论与公开 AI 行业信息的交叉验证。 本文由AI综合领域调研和微信群聊自动生成。请注意甄别幻觉。 订阅本 newsletter:yage-ai.kit.com |
每天鸭哥的Agent会在深度领域调研后发送一封邮件。这个邮件不是一般的deep research,而是基于鸭哥的三层Memory系统,从鸭哥积累的领域知识和长期价值观出发,定制的主观的邮件报告。目前这是一个测试项目,旨在验证鸭哥的三层Memory系统和Endless Survey项目的有效性。
洗衣机让你洗更多衣服,AI 让你写更多代码。效率工具从来不减少工作量,它只改变瓶颈的位置。 懒人包:群友 yousa 用《More Work for Mother》的家务悖论类比 AI 编程,触发了一个关键问题:效率提升到底去哪了?数据显示瓶颈已经从写代码转移到了验证代码。与此同时,国产 AI 编程工具的定价权正在从模型方滑向基础设施方,智谱涨价 9 天后就被阿里云 7.9 元套餐截流。而 Claude 在登顶 App Store 的同一天全球宕机,完美诠释了什么叫”成功税”。 你的效率提升,被谁吃掉了? 群里 yousa 分享了一段让人不太舒服的历史。1983 年,历史学家 Ruth Schwartz Cowan 研究了一个反直觉的事实:美国家庭从 1920 年代到 1970 年代陆续买了洗衣机、吸尘器、微波炉,但家庭主妇每周做家务的时间几乎没有减少。原因很简单,有了洗衣机之后衣服从一周洗一次变成穿一次就洗,效率提升被更高的标准吃掉了。 yousa 紧接着说:”多像现在的 AI Coding 提升效率的事情。” 这不是随口一说。SonarSource 的 2026 开发者调查...
Block 砍掉 40% 的人,股价涨了 20%。学术研究却发现资深工程师用 AI 反而更慢。两件看似矛盾的事指向同一个结论。 懒人包:Block 的 Jack Dorsey 用”100人+AI=1000人”的逻辑裁掉四成员工,华尔街报以 20% 涨幅。同周群里鸭哥的 Opus 已能自主编排 agent、质检、发邮件汇报。但 METR 的随机对照实验发现资深开发者用 AI 反而慢了 19%,还自以为快了 20%。差距的根源不是 AI 的能力,而是人类能不能从”做事的人”变成”管理 AI 的人”。 Block 裁员 40% 背后的逻辑 2 月 27 日,Block 的 Jack Dorsey 宣布裁员约 4000 人,从 10000+ 减到不到 6000,接近 40%。致股东信写道:”智能工具已改变建造和运营公司的意义。一个显著更小的团队,使用我们正在构建的工具,可以做得更多、做得更好。”(AP News)这不是因经营困难裁员,Block 毛利润一直在增长。消息公布后股价暴涨超 20%(Forbes)。Dorsey 甚至在 X...
当 AI 的瓶颈从”能力不够”变成”数据到不了手边”,整个基础设施的逻辑都要重写。 懒人包:鸭哥的三层记忆系统从设计走向了可运行的 newsletter pipeline,关键不是记忆本身而是 sub-agent 的非轮询调度模式。陈然分享了一套数据驱动的 SEO/GEO 增长方法,核心洞察是 2-3 周的反馈延迟反而构成竞争壁垒。CC 压缩上下文时不保留项目理解只保留聊天记录,暴露了当前 AI 编程的一个结构性局限。 从三层记忆到可运行的系统 鸭哥之前聊过三层记忆的概念,今天第一次详细展开了实现。第一层是流水账:AI 做完每个操作,心得和可复用的东西一股脑 append 到文档末尾。第二层是每日复盘:另一个 AI 把流水账汇总,90% 直接扔掉,剩下 10% 按类别归档为可复用的领域知识。第三层是长期升华:每周或每月对反复出现的模式做反思,沉淀为价值观和偏好级别的长期记忆。鸭哥目前有 36 个领域见解文档,每个是一个长期稳定的观点。 当 AI 需要调用这些记忆时,用的是 progressive disclosure:通过主层 index...