🐦 X / Twitter
Sam Altman | OpenAI CEO
背景: Sam Altman 是 OpenAI CEO,全球 AI 行业最具影响力的人物之一,同时也是 Stargate 项目的核心推动者。Stargate 是 OpenAI 与微软、软银合作的千亿美元 AI 基础设施计划,旨在为 OpenAI 构建专属的算力网络。
原文:
"The first steel beams went up this week at our Michigan Stargate site with Oracle and Related Digital"
发生了什么: 本周,OpenAI 位于密歇根的 Stargate 数据中心正式动工,钢结构梁架已经开始吊装。这是继德克萨斯州之后的第二个 Stargate 选址,由 Oracle 和 Related Companies(一家大型房地产开发商)共同参与。图片显示工地上已经竖起了大型钢梁,意味着这个投资规模数百亿美元的算力项目正在按计划推进。
为什么重要: Stargate 的战略逻辑是"基础设施先行"——Altman 坚信未来 AI 的竞争核心是算力,而算力需要自己掌控,不能依赖云厂商。Oracle 作为一家企业级数据库和云基础设施公司加入,说明这个数据中心不仅是算力集群,也会承载 AI 训练和推理所需的企业级工作负载。结合 OpenAI 近期与 Oracle Cloud 的深度合作,这张图暗示 OpenAI 正在构建一个多云+自建的混合算力架构。
数据: 5176 赞,294 转发,824 条回复。是本日 Builder 圈最高互动量的帖子。
要不要看原文: 如果你对 AI 基础设施投资细节感兴趣,值得一看原文下面的讨论区,有很多关于 Oracle 在 AI 基础设施中角色的分析。
🔗 https://x.com/sama/status/2037610000122839116
Aaron Levie | Box CEO
背景: Aaron Levie 是企业内容管理 SaaS 平台 Box 的联合创始人兼 CEO,专注于用 AI 重新定义企业如何管理、协作和治理内容资产。他是企业 AI 落地领域最活跃的思想领袖之一。
原文(完整推文 Thread):
"The big gap in most enterprises being able to automate work is being able to get right context to the agents."
"We experience a huge benefit in coding in tech because the problem is generally far simpler than other areas of knowledge work. The codebase contains a bunch of necessary context, access controls and permissions are generally not a major concern, the users are technical enough to supply the context, and the final output is generally quickly verifiable."
"Most knowledge work doesn't look like this. The data is sitting in legacy silos that don't easily connect to agents, the access controls are all out of whack (people have either too much or too little access), the information isn't agent-ready, and more."
"This is the big context gap for any type of agentic workflows in most organizations right. The platforms that make solving this easy, and the companies that retool their workflows to enable this, will be the winners in a world of agents."
核心论点拆解: Levie 认为 AI 落地企业的真正瓶颈不是模型能力,而是Context Gap(上下文缺口)。他用软件开发作为对比:
为什么编程能率先被 AI 颠覆?因为编程天然具备几个有利于 AI 的条件:
- 代码库 = 天然上下文:代码本身已经包含了理解问题所需的全部信息,不需要额外搜索
- 权限简单:代码仓库的访问控制比企业内容管理简单得多
- 用户足够技术化:程序员知道怎么给 AI 提供正确的上下文
- 输出可快速验证:代码能不能跑,结果一目了然
而大多数知识工作(法务、医疗、金融、HR)完全相反:
- 数据分散在互不联通的遗留系统里(老旧的 ERP、CRM、文档管理系统)
- 权限管理混乱(有人权限太多,有人权限太少)
- 信息根本没有"AI 就绪"的格式
- 输出结果难以快速核实
战略含义: Levie 实际上在说:未来 Agent 时代的企业赢家,不是模型最好的公司,而是最容易把正确上下文输送给 Agent 的公司。Box 正试图成为这个"上下文管道"——把企业散落各处的内容资产变成 Agent 可以消费的结构化上下文。
我的点评: 这是我见过的关于企业 AI 落地最清晰的分析框架之一。"Context Gap" 这个概念精准地解释了为什么很多企业花大钱买 AI 模型却效果甚微——问题根本不在模型,而在企业自己的信息基础设施。值得精读原文。
🔗 https://x.com/levie/status/2037744753073385518
Peter Steinberger | OpenClaw
背景: Peter Steinberger 是 OpenClaw 的核心开发者(他自称"ClawFather"),也是奥地利知名 iOS 开发者(ASPBoard 创始人)。他最近的高活跃度帖子主要在推广 OpenClaw 的新功能。
帖子一:OpenClaw 将成为 MCP
"The next version of OpenClaw is also an MCP, you can use it instead of Anthropic's message channel MCP to connect to a much wider range of message providers."
深度解读: MCP(Model Context Protocol)是 Anthropic 主导的一个开放协议,让 AI 模型可以连接外部工具和数据源。目前主流的 MCP 实现是 Anthropic 官方的 Message Channel MCP,它让 Claude 能连接各种外部系统。
Steinberger 说 OpenClaw 下一个版本也会成为一个 MCP——也就是说,OpenClaw 不仅仅是一个 AI Agent,它本身会变成一个可以被其他 AI Agent 调用的工具。具体来说,你可以用 OpenClaw 替代 Anthropic 的 Message Channel MCP,来连接更广泛的消息提供商(不仅仅是 Claude 可以用,任意支持 MCP 的 AI 都可以把 OpenClaw 当作消息层)。
这意味着 OpenClaw 正在从一个"AI Agent"进化成一个跨平台的 Agent 基础设施层——它的核心价值不再是"替你聊天",而是"让各种 AI 都能通过它连接消息系统"。
帖子二:新功能:/acp spawn codex --bind here
"Another sick upcoming feature: /acp spawn codex --bind here — LOOK AT ME, I AM CODEX NOW"
这个功能的意思是:你可以在 OpenClaw 的 session 里直接"变身"成 Codex(OpenAI 的编程 Agent),或者切换到 Claude Code/OpenCode 等其他 Agent。之前 OpenClaw 只能在 thread 里绑定不同的 Agent,现在进一步扩展到 session 层——也就是说,即使不在 thread 里,你也可以随时把自己的"大脑"切换成另一个 Agent。
数据: 1548 赞,69 转发,110 条回复——是本日 Builder 圈最高互动帖子,说明社区对 OpenClaw 的 MCP 化战略非常关注。
要不要看原文: 如果你在用 OpenClaw,或者对 Agent 架构、MCP 生态感兴趣,这两条都值得看。讨论区有很多关于 MCP 生态竞争的讨论。
🔗 https://x.com/steipete/status/2037715163562815817 🔗 https://x.com/steipete/status/2037725493315707290
Zara Zhang | follow-builders 作者
背景: Zara Zhang 是 follow-builders 这个 skill 的作者,哈佛 2017 届毕业,是 AI 圈活跃的 Builder,同时运营 YouTube 频道。她同时也是 Latent Space 播客的联合主播。
洞察一:人类 vs Agent 的错误处理悖论
"The next generation of AI products will need to figure out how to reconcile human fallibility with agent infallibility"
解读: Zara 提出了一个非常有意思的产品设计悖论:AI Agent 的核心承诺是"不犯错、不知疲倦",但人类用户却天然会犯错、会疏漏、会遗漏信息。当 AI 越来越可靠,人类失误对系统整体可靠性的影响反而变得更显著——因为木桶的短板变了。
这对 AI 产品设计意味着什么?下一代产品需要在"信任 AI 的判断"和"给人类留出纠错空间"之间找到新的平衡点。太信任 AI 会放大人类的错误;太不信任 AI 会丧失效率优势。
洞察二:真正的 Context Window 瓶颈是谁的?
"Turns out the bottleneck is the human's context window, not the AI's"
解读: 这句话精准吐槽了当前 AI 助手设计范式的一个核心矛盾——我们疯狂在给 AI 扩展 context window(从 4K 到 128K 到 1M tokens),却忽略了一个根本事实:人类处理 AI 输出的能力才是真正的瓶颈。
一个 50 页的 AI 报告写出来,没有人会真的读完。我们需要的不是更长的 AI context window,而是更好的信息压缩和优先级排序能力,让 AI 的输出量适配人类的阅读能力。
我的点评: Zara 的两条洞察都直指 AI 产品设计的深层问题,不是技术层面的,而是人机交互范式层面的。146 赞也说明社区对"AI 与人类注意力错配"这个话题共鸣强烈。值得一看原文。
🔗 https://x.com/zarazhangrui/status/2037653942663098556 🔗 https://x.com/zarazhangrui/status/2037610198349894039
Garry Tan | YC President
背景: Garry Tan 是 Y Combinator 的现任总裁兼 CEO,也是天使投资人,曾是 Posterous 联合创始人。他是目前全球最有权势的早期投资机构领导人,影响着每年数百个创业公司的命运。
推荐 Boris 的访谈
"I have to say this interview changed my life. Hearing how Boris thinks about software spurred me to work much harder on releasing my own way of doing things and on iterating fast on how I build."
背景: Garry Tan 推荐了一个他认为是"改变人生"的人物访谈——Boris(很可能是指 Boris Lublinsky,他是软件架构领域的老兵,曾在微软、TypeSafe 等公司工作,以关于"Big Data Software Architecture"的深度博客著称)。Garry Tan 说 Boris 关于软件工程方法论的思考方式促使他更激进地发布自己的方法论,并且加快迭代速度。
关于 GStack 的使用
"This is why on GStack I usually just run /plan-eng-review and /ship and it works"
解读: Garry Tan 也加入了他自己的 GStack workflow——用 /plan-eng-review 做工程规划评审,用 /ship 发布。他对这套工具的评价是"it works",说明 YC 内部确实在大规模使用 GStack(YC 孵化的 AI 产品组合公司使用的技术栈)来辅助内部工作。"It works" 这个简短评价比长篇大论更有说服力——YC 总裁亲自在用,而且觉得真的有用。
要不要看原文: Boris 的访谈如果能找到,值得一读。Garry Tan 说"改变人生"通常不是随便说的。
🔗 https://x.com/garrytan/status/2037772478198739346 🔗 https://x.com/garrytan/status/2037776210898600402
Aditya Agarwal | South Park Commons
背景: Aditya Agarwal 是 South Park Commons 普通合伙人(一家专注深度科技的 VC),同时是 Bevel Health 联合创始人。他曾是 Facebook 早期工程师、Dropbox CTO、Flipkart 董事会成员——是典型的"做过一线工程再去投资"的人。
核心洞察:与模型直接竞争,反而是更聪明的策略
"Everyone wants to avoid taking on the models head on. Surprising how few people take the opposite approach. Lean into the risk. But make a bet on capabilities that are 12-18 months out. The models suck at something today but I am going to bet it is good enough after XXX months"
深度解读: Aditya 提出了一个反直觉的创业/投资思路。大多数创业者和投资人都在想"什么事是 AI 模型做不好的,我就做什么"——也就是在 AI 能力的边界之外找机会。但 Aditya 认为,真正被低估的策略是主动拥抱那些今天 AI 还做不好的事情,但赌它们在 12-18 个月后会足够好。
举例来说:今天 AI 模型的代码生成能力可能只有 70 分,但如果你赌它 18 个月后会到 90 分,你今天就可以开始围绕"AI 辅助编程"构建产品,而不是等 AI 完美了再做。这个思路本质上是在预测模型的进化曲线,然后在曲线的"临界点之前"入场。
我的点评: 这是一个典型的"VC 时间轴思维"——不追求完美,而是在模型进化的曲线上找到最大价值的切入时机。对于 Builder 来说,这个思路的启发是:不要等 AI 准备好了再做事,要判断 AI 什么时候会准备好,然后提前布局。
🔗 https://x.com/adityaag/status/2037531035978874936
Dan Shipper | Every CEO
背景: Dan Shipper 是 Every 的联合创始人兼 CEO。Every 是一个 AI 优先的订阅产品,目标是为用户提供"stay at the edge of AI"所需的一切——包括播客、Newsletter、工具和社区。Every 在 AI 圈有相当高的人气,尤其以高质量的深度内容著称。
推广 Compound Engineering
"Want an engineering philosophy truly built for the AI age? Use compound engineering."
深度解读: Every 提出了一个叫 **Compound Engineering(复合工程)**的概念——一种在 AI 时代真正适用的工程哲学。他们认为,AI 时代需要的不是把 AI 塞进传统工程流程里,而是需要完全重构工程方法论本身。"Compound"这个词暗示的是:工程产出可以像复利一样持续积累,而不是每次都从零开始。
Dan Shipper 在帖子下面链接了他们的详细文章,应该是对这个概念的完整阐述。从 83 赞、9 转发的互动来看,社区对"AI时代的工程方法论"这个话题有相当的需求。
Demo Day: Every 最近的 Demo Day 吸引了 1200+ 人参加,说明他们围绕 AI 的内容+工具生态正在快速扩张,有一批人正在认真追随 Every 的步伐。
要不要看原文: 如果你对工程方法论感兴趣,Compound Engineering 那篇文章值得一读。目前看起来是 Every 在 AI 工程化方向上的系统性思考。
🔗 https://x.com/danshipper/status/2037589016371974486 🔗 https://x.com/danshipper/status/2037520384602312954
Peter Yang | Roblox PM
背景: Peter Yang 是 Roblox 的产品经理,同时运营一个 14 万订阅者的 AI Newsletter,专注于极其实用的 AI 教程和人物访谈。他在 AI 应用层的内容质量相当稳定,受众明确。
实用的 AI 技能:/exec-review
"Build an /exec-review AI skill to get your leader's product feedback anytime you want."
Peter Yang 分享了一个非常实用的 AI 应用案例——如何给团队负责人建一个 AI Review Skill。他提供的框架包括:
- 核心决策原则(什么是这个 leader 支持的,什么会被 push back)
- 反馈模式
- 沟通风格
- Review 清单
- 实际案例
这个技能的思路本质上是把老板的判断标准变成一个可以随时调用的 AI 系统——你写完一个方案之后,先让 AI 用老板的框架跑一遍,能提前知道老板可能的反馈,而不需要每次都去打扰他。
访谈推广: Peter Yang 还在推他和 Anthropic 产品设计师 Jenny 的访谈,内容包括:Jenny 在 Anthropic 内部如何真实使用 Claude Cowork、从产品反馈到产品原型 deck 的完整演示、Cowork 的创作背后故事。这条访谈更适合想了解 Claude 产品细节和 Anthropic 内部工作方式的人。
要不要看原文: /exec-review 的完整模板和解释值得一看,如果你经常需要向上沟通或做产品 review 的话。
🔗 https://x.com/petergyang/status/2037543771580289154 🔗 https://x.com/petergyang/status/2037704776331448686
Swyx | Temporal/Latent Space
背景: Swyx(Syed Balkhi)是 AI 领域最活跃的社区建设者之一,是 Temporal(分布式工作流引擎)的开发者倡导者,Latent Space 播客主播,dx.tips 和 Cognition 的成员,是 AI Builder 圈的信息枢纽。
推荐 create-context-graph 工具
"Just learned about create-context-graph — one command and it sets up key entity relationships for 22 top industry domains. Been looking for something like this to 'layer on' a social graph to every single app I make!"
深度解读: Swyx 发现了一个叫 create-context-graph 的工具,核心功能是:一条命令,为 22 个主流行业领域建立关键实体关系图谱。它的应用场景是把"实体关系知识"叠加到社交图谱上——换句话说,如果你想在某个应用里加入"这个人在行业里和谁是上下游关系、竞争关系、合作关系",这类上下文信息,create-context-graph 能帮你快速建立。
Swyx 说自己想把它"layer on"到每个 App 的社交图谱上,增强信息检索和关联发现能力。这对于构建 AI 应用(特别是需要行业知识图谱的应用)的人来说是个值得关注的工具。
数据: 382 赞,27 转发——是 Swyx 本日最高互动帖子,说明社区对"快速建立行业知识图谱"这个方向很有需求。
🔗 https://x.com/swyx/status/2037620876179537989
Nan Yu | Linear Head of Product
背景: Nan Yu 是 Linear 的 Head of Product。Linear 是目前最受工程师好评的项目管理和 issue 追踪工具,以极快的速度、优美的设计和 AI 优先的功能迭代著称。
关于 YC 和 GStack 同质化风险的思考
"What if the next few YC batches have overly correlated performance because they all use GStack, which causes them to make the same kinds of mistakes but also biases to them towards being selected for admission?"
深度解读: Nan Yu 提出了一个非常有趣的结构性观察:如果接下来几届 YC 团队都使用 GStack(YC 孵化的 AI 产品组合公司使用的技术栈),会不会产生两种效应:
① 相同的错误模式:大家都用同一套技术栈/工具链,犯的错误也会高度相关——比如都依赖同一个 API,都遇到同一个性能瓶颈。 ② 选择偏差:YC 的筛选标准本身也可能被 GStack 影响——如果评审者看到大量用 GStack 的申请,这些申请可能会显得"更符合 YC 的审美",形成正反馈循环。
这个观察的潜在含义是:AI 辅助创业虽然降低了技术门槛,但也可能导致创新模式的同质化。当所有人都用相同的 Agent、相同的 workflow、相同的工具链,产出差异化的概率反而可能下降。
要不要看原文: 这是一个值得深思的观察,原文下面的讨论可能有一些有趣的延伸观点。
🔗 https://x.com/thenanyu/status/2037617782943056148
Josh Woodward | Google VP
背景: Josh Woodward 是 Google VP,负责 Google Labs、GeminiApp 和 GoogleAIStudio,是 Google AI 产品战略的核心人物之一,也是 Google 在 AI 视频生成领域的主要代言人。
推广 Gemini 视频生成
"Our 'Veo Sailor' from the Veo 3 launch wants to remind you: 'You can still make videos in Gemini'"
这是 Google 在宣传 Gemini 可以直接生成视频的能力(很可能是通过集成本地的 Veo 3 模型)。Josh 引用了 Veo 3 发布会上推出的一个虚拟形象"Veo Sailor"来提醒用户:Gemini 不只是聊天机器人,你还可以用它做视频。
这是一条偏产品推广的帖子,149 赞表明社区对 Google 的视频生成能力有一定关注度。
🔗 https://x.com/joshwoodward/status/2037674926715605331
📡 Official Blogs
Anthropic Engineering — 今日无更新 Claude Blog — 今日无更新
🎙️ Podcasts
今日各 AI 播客(Latent Space、Training Data、No Priors、Unsupervised Learning、Data Driven NYC)均无新节目更新。