微软与OpenAI:一纸协议背后的战略松绑
这一轮微软与OpenAI的协议更新,是双方关系从'深度捆绑'向'利益共生'演化的关键节点。协议核心条款如下:
- 微软持有OpenAI盈利部分27%股权,目前非盈利部分估值约1,300亿美元
- OpenAI承诺通过微软Azure独家发布模型,独家API分发权维持至2032年或AGI实现(以先到为准)
- OpenAI将额外采购2,500亿美元的Azure云计算服务
- 微软获得OpenAI平台总收入的15%营收分成
- 作为交换,微软放弃对OpenAI算力的优先购买权,OpenAI可自建或向第三方采购算力
这一调整本质上是为OpenAI未来上市和多元化融资铺路。OpenAI获得了更大的资源灵活性,微软则锁定了长期收益分成,双方从'从属关系'演变为'战略伙伴'。
Sam Altman的失态:一个值得警惕的信号
在播客访谈中,主持人Brad以正常语气质疑:当前OpenAI年营收约130亿美元,如何支撑未来数万亿美元的AI基础设施投资?这是所有理性投资者都会问的问题。
Sam Altman的反应却出人意料——他打断主持人,讽刺对方'如果你想卖掉手里的股权,我马上帮你找买家',并公开表示希望看到做空者'被燃烧'('I would love to see them get burned')。
这种被动攻击式(passive aggressive)的回应方式,暴露了几个值得关注的问题:
- 对于营收从130亿到1,000亿(两年8-10倍)的激进预期,缺乏实质性论证
- 面对合理质疑的防御性姿态,与一家万亿美元市值公司CEO应有的稳健表达不符
- 对于本身就对AI泡沫抱有担忧的投资者而言,这种情绪化反应反而强化了风险意识
对于美股投资者而言,这不是看空信号,但它提示当前AI估值中存在一定的情绪溢价,需要保持清醒的仓位管理意识。
Satya Nadella的云计算利润率课:fungibility是关键
相比Sam Altman的情绪化表达,微软CEO Satya Nadella在同一期播客中给出了更有价值的行业判断,核心概念是fungibility(算力资源的可互换性)。
Satya指出,数据中心运营利润率的高低,取决于两个核心指标:
- Token efficiency(产出效率):通过优化软件栈,让每块GPU在单位时间内生成更多token
- GPU利用率:通过高效的多租户管理和AI任务调度,减少GPU空转时间
这两个指标的提升,都高度依赖软件能力,而非单纯的硬件堆叠。这意味着:
- 不同型号GPU(H100、H200、GB100/200)之间的高效切换
- 多租户之间、同一租户不同AI工作流之间的低损耗调度
能做到fungibility的玩家,才有资格在利润率上与hyperscaler对标,否则只能沦为类房地产信托(REIT)型的低回报资产。
当前各大云平台运营利润率参考:谷歌云约24%,亚马逊AWS约33%,微软Azure超过40%。
宏观解读:hyperscaler为何不会无限扩张单一客户算力
微软三四月间曾短暂收缩基础设施投资计划,背后逻辑值得深思。Satya明确表态:微软不会无条件满足客户的所有算力需求,包括OpenAI。
原因在于微软需要平衡三类需求:
- 自身第一方业务(Office 365、Copilot等高利润率产品线)
- 第三方多租户云服务(Azure的传统B2B业务)
- 单一超大客户的算力需求(如OpenAI的大模型训练)
Satya特别强调,Copilot的利润率远高于单纯出租GPU算力。这意味着,对hyperscaler而言,为单一巨型客户建设数吉瓦级数据中心的投资回报率,可能不如自有高毛利SaaS产品线。
这正是CRWV、NBIS等neocloud存在的结构性机会所在——它们可以更纯粹地服务于超大算力客户,而无需平衡传统业务。
投资结论:CRWV和NBIS的天花板在哪里
基于以上分析,对neocloud赛道的行情分析可以得出以下结构性判断:
- 行业将经历大规模洗牌,缺乏软件能力或融资能力的玩家将被淘汰,最终存活的一到两家头部企业有望对标hyperscaler利润率水平
- NBIS引入微软作为大客户后,其商业模式将向CRWV的单一超大客户模式收敛,两者差异逐步缩小
- 头部neocloud的市值天花板,已从此前市场预期的500-1,000亿美元,向数千亿美元方向重新定价
- 对于仍处于亏损或低利润率阶段的neocloud,运营回报率可能长期低于10%,类似Equinix(EQIX)的REIT模式
核心启示:AI基础设施赛道的美股投资逻辑,正在从'算力扩张期的Beta机会'向'软件壁垒驱动的Alpha机会'切换。在仓位管理上,建议将纯AI基础设施标的控制在合理比例内,同时重点筛选具备真实软件栈能力和大客户锁定优势的头部公司,而非追逐短期市场热度。