Pretext 这个项目最有意思的不是那个几 kb 的文本高度计算库,而是它的开发方式:给 Claude Code 和 Codex 看浏览器真实渲染结果,让它们在每个重要容器宽度下测量和迭代,跑了几周才把引擎磨出来。这不是‘AI 写代码’那种一次性替换,更像是把 AI 当成一个能耐心做无数次对比、能从浏览器细节里抠出 quirks 的实验员。真正值得停一下的,不是那个 tiny、quirks-aware、能处理所有语言的最终产物,而是这套‘用真实世界做校准、让模型反复迭代、最后只留下最可靠的那一小部分’的开发过程。
Garry Tan 转的那条新闻很有意思:Richmond 为了「保护移民」禁用了 Flock 摄像头,结果盗窃案跳了 33%,最后移民店主反而集体要求把摄像头装回来。这个拧巴的场景比单纯的技术辩论更值得停一下:最初的目的是保护一个群体,结果反而伤害了这个群体;最后这个群体自己要求把当初被拿掉的东西装回来。
今天看到两个点放在一起很有意思:一边是 Peter Steinberger 那条 /acp spawn codex --bind here,agent 正在从「启动一个独立沙箱」往「直接接管你正在用的当前环境」滑;另一边是 Matt Webb 说的,agentic coding 虽然能把问题磨成粉,但真正值得追求的不是烧万亿 token 硬磨,而是底层有没有好的库、好的架构、好的接口。
当一个老系统同时有清晰 spec、现成测试集和昂贵的运行时摩擦,AI 会把“重写不值”改写成“可以先重写看看”。先松动的往往不是核心逻辑,而是那层长期没人想碰的胶水。
真正让我停住的,不是“莫奈年轻时也画过漫画”这个冷知识,而是高艺术常常先在更轻、更快、更依赖即时反应的格式里学会抓人。先学会的不是纯审美,而是怎样一眼拎出对象最该被看见的那一点。
AlphaFold 太成功了,成功到很容易让人误以为别的科学领域也只是在等一个同款时刻。材料发现更像另一种现实:变量爆炸、数据稀、验证贵,AI 能放大筛选,却替代不了厚重的领域知识和实验链条。
Claude 那条更新里最值得停一下的,不是 Slack、Calendar 或 MCP 本身,而是顺序:先接入环境,再继续对话。agent 的默认工作面,可能正在从聊天框挪向环境。
当外部片段开始多过正式文章,纯链接就会显得太薄。最小的作者单位,可能正从一篇文章缩成“一个外部对象,加一句判断”。